|
Ποιανού ευθύνη όμως
είναι να καθορίσει πώς
οι τελευταίες
καινοτομίες από τη γενετική
τεχνητή νοημοσύνη θα
εφαρμοστούν σε ολόκληρη
την οικονομία τα επόμενα
χρόνια; Και πώς μπορεί
να αντιμετωπιστεί με
υπευθυνότητα; Οι ειδικοί
λένε ότι όλοι μας
είμαστε υπόλογοι.
«Χρειαζόμαστε μια
πληθώρα δεξιοτήτων για
να μπορέσουμε να κάνουμε
καλά αυτή τη δουλειά»,
δήλωσε η Lara Liss,
επικεφαλής υπεύθυνη για
την προστασία της
ιδιωτικής ζωής στην
Walgreens Boots
Alliance, μιλώντας στην
εικονική συζήτηση
Fortune Brainstorm AI
την περασμένη εβδομάδα,
η οποία επικεντρώθηκε
στον τρόπο εξισορρόπησης
των κινδύνων και των
ευκαιριών της τεχνητής
νοημοσύνης.
Η Liss ανέφερε ότι όσον
αφορά την υπεύθυνη
τεχνητή νοημοσύνη, οι
άνθρωποι πρέπει να
«σηκώσουν τα μανίκια»
και να εμπλακούν
περισσότερο τώρα. Και
αυτή η εργασία δεν είναι
μόνο για ειδικούς σε
θέματα τεχνητή
νοημοσύνης ή επιστήμονες
πληροφορικής – το input
θα πρέπει να ποικίλλει
από τους προγραμματιστές
μέχρι τα οικονομικά και
από το μάρκετινγκ μέχρι
το ανθρώπινο δυναμικό.
«Πρέπει να έχουν μια
βασική κατανόηση του πώς
λειτουργεί η υπεύθυνη
τεχνητή νοημοσύνη και τι
πρέπει να εξετάζουν στον
οργανισμό τους», τόνισε
η Liss.
Σε αυτή την κατεύθυνση,
το Εθνικό Ινστιτούτο
Προτύπων και Τεχνολογίας
(NIST) των ΗΠΑ
δημοσίευσε τον Ιανουάριο
ένα πλαίσιο διαχείρισης
κινδύνου τεχνητής
νοημοσύνης, το οποίο
περιελάμβανε 72
αποτελέσματα που θα
πρέπει να επιδιώκουν να
επιτύχουν οι οργανισμοί για
να μειώσουν τις
διακρίσεις, να
καταστήσουν τα συστήματα
πιο διαφανή και να
διασφαλίσουν συνολικά
ότι τα συστήματα
τεχνητής νοημοσύνης που
κατασκευάζονται είναι
αξιόπιστα.
«Τελικά, αυτό που
προσπαθούμε να κάνουμε
είναι να ωθήσουμε τους
οργανισμούς να αλλάξουν
την κουλτούρα τους ώστε
να είναι περισσότερο
εναρμονισμένοι με τις
εκτιμήσεις των κινδύνων
για την τεχνητή
νοημοσύνη, όπως ακριβώς
κάνουμε τώρα για τον
κίνδυνο στον κυβερνοχώρο
ή τον κίνδυνο προστασίας
της ιδιωτικότητας»,
δήλωσε η Reva Schwartz,
επικεφαλής ερευνήτρια
μεροληψίας στην τεχνητή
νοημοσύνη στο NIST.
Έρευνα του
συμβουλευτικού
γίγαντα Accenture δείχνει
ότι το 95% των στελεχών
πιστεύει πως η
διαχείριση κινδύνων για
την τεχνητή νοημοσύνη
πρέπει να είναι μία από
τις κορυφαίες
προτεραιότητές τους,
αλλά μόνο το 6% των
οργανισμών πιστεύουν ότι
είναι έτοιμοι με ένα
υπεύθυνο θεμέλιο για την
τεχνητή νοημοσύνη που θα
τους βοηθήσει να
πλοηγηθούν στην ταχέως
αναπτυσσόμενη
τεχνολογία.
Η Accenture πιστεύει ότι
οι κορυφαίοι κίνδυνοι
που δημιουργούνται από
τη γενετική τεχνητή
νοημοσύνη περιλαμβάνουν
τον αντίκτυπο στο
εργατικό δυναμικό, την
προστασία της
ιδιωτικότητας και της πνευματικής
ιδιοκτησίας, τη
μεροληψία και τις
ψευδαισθήσεις, οι οποίες
είναι οι αρνητικές
επιπτώσεις των αποφάσεων
που λαμβάνονται με βάση
ανακριβείς πληροφορίες
σε μεγάλα γλωσσικά
μοντέλα.
Ο Arnab Chakraborty,
ανώτερος διευθύνων
σύμβουλος της Accenture
για την παγκόσμια
υπεύθυνη τεχνητή
νοημοσύνη, επεσήμανε ότι
η τελική ευθύνη για την
αξιολόγηση του πού
χρησιμοποιείται η
τεχνητή νοημοσύνη σε
έναν οργανισμό πρέπει να
ξεκινά από τον
διευθύνοντα σύμβουλο.
Στην Accenture, οι
αποφάσεις για την
τεχνητή νοημοσύνη
προέρχονται από μια
διευθύνουσα επιτροπή που
περιλαμβάνει τον CEO της
εταιρείας, τον
επικεφαλής τεχνολογίας,
τον νομικό σύμβουλο και
τον επικεφαλής
λειτουργιών.
«Αυτό πρέπει να συμβεί
στο επίπεδο του
διοικητικού συμβουλίου,
του διευθύνοντος
συμβούλου και της
εκτελεστικής επιτροπής»,
κατέληξε ο Chakraborty.
Η Liss επανέλαβε την
αίσθηση που μοιράστηκαν
οι Chakraborty και
Schwartz. «Οι άνθρωποι
παίρνουν αυτή την ευθύνη
απίστευτα σοβαρά. Και
νομίζω ότι ακούγεται
ολοένα και περισσότερο
στις αίθουσες
συνεδριάσεων, στις
ομάδες C-suite και σε
όλες τις εταιρείες σε
όλα τα επίπεδα ότι
πρέπει να το κάνουμε
σωστά».
Πηγή: Fortune |