|
Ωστόσο, υπάρχει τρόπος
τα μεγάλα γλωσσικά
μοντέλα (LLMs) να
εκτελέσουν τέτοιες
πολύπλοκες εργασίες: να
συνεργαστούν μεταξύ
τους. Ομάδες LLMs
-γνωστές ως συστήματα
πολλαπλών πρακτόρων
(MAS)- μπορούν να
αναθέτουν η μία στην
άλλη καθήκοντα, να
βασίζονται στη δουλειά
της άλλης ή να συζητούν
το πρόβλημα προκειμένου
να βρουν μια λύση στην
οποία η κάθε μία από
μόνη της δεν θα μπορούσε
να φτάσει. Όλα αυτά
χωρίς την ανάγκη κάποιου
ανθρώπου να τις
κατευθύνει σε κάθε βήμα.
Οι ομάδες επιδεικνύουν
επίσης τα είδη της
συλλογιστικής και των
μαθηματικών δεξιοτήτων
που συνήθως υπερβαίνουν
τα αυτόνομα μοντέλα ΤΝ,
ενώ παράλληλα θα
μπορούσαν να είναι
λιγότερο επιρρεπείς στη
δημιουργία ανακριβών ή
ψευδών πληροφοριών.
Όταν τους δίνεται μια
κοινή αποστολή, ομάδες
πρακτόρων μπορούν να
επιδείξουν συμπεριφορά
προγραμματισμού και
συνεργασίας, ακόμα και
χωρίς ρητές οδηγίες. Σε
ένα πρόσφατο πείραμα που
χρηματοδοτήθηκε από την
Υπηρεσία Προηγμένων
Αμυντικών Ερευνητικών
Προγραμμάτων των ΗΠΑ
(DARPA), ζητήθηκε από
τρεις πράκτορες – τον
Alpha, τον Bravo και τον
Charlie – να βρουν και
να εξουδετερώσουν βόμβες
που ήταν κρυμμένες σε
ένα σύμπλεγμα εικονικών
δωματίων. Οι βόμβες
μπορούσαν να
απενεργοποιηθούν μόνο με
τη χρήση συγκεκριμένων
εργαλείων με τη σωστή
σειρά. Σε κάθε γύρο της
εργασίας, οι πράκτορες,
οι οποίοι
χρησιμοποιούσαν τα
γλωσσικά μοντέλα GPT-3.5
και GPT-4 της OpenAI για
να μιμηθούν ειδικούς
στην επίλυση
προβλημάτων, ήταν σε
θέση να προτείνουν
ενέργειες και να τις
κοινοποιούν στα υπόλοιπα
μέλη της ομάδας τους.
Σε κάποιο σημείο της
άσκησης, ο Alpha
ανακοίνωσε ότι
επιθεωρούσε μια βόμβα σε
ένα από τα δωμάτια και
έδωσε οδηγίες στους
συνεργάτες του για το τι
έπρεπε να κάνουν στη
συνέχεια: «Bravo,
παρακαλώ μετακινήσου στο
δωμάτιο 3. Charlie,
μετακινήσου στο δωμάτιο
5». Ο Bravo
συμμορφώθηκε,
προτείνοντας στον Alpha
να δοκιμάσει να
χρησιμοποιήσει το
κόκκινο εργαλείο για να
εξουδετερώσει τη βόμβα
που είχε συναντήσει. Οι
ερευνητές δεν είχαν πει
στον Alpha να κάνει
κουμάντο στους άλλους
δύο πράκτορες, αλλά το
γεγονός ότι το έκανε
οδήγησε την ομάδα στο να
εργαστεί πιο
αποτελεσματικά.
Επειδή τα LLMs
χρησιμοποιούν γραπτό
κείμενο τόσο για τα
εισερχόμενα όσο και για
τα εξερχόμενα, οι
πράκτορες μπορούν εύκολα
να συνομιλούν απευθείας
μεταξύ τους. Στο
Ινστιτούτο Τεχνολογίας
της Μασαχουσέτης (MIT),
οι ερευνητές έδειξαν ότι
δύο chatbots σε διάλογο
τα πήγαν καλύτερα στην
επίλυση μαθηματικών
προβλημάτων από ό,τι ένα
μόνο. Το σύστημά τους
λειτούργησε
τροφοδοτώντας τους
πράκτορες, ο καθένας
βασισμένος σε
διαφορετικό LLM, με την
προτεινόμενη λύση του
άλλου. Στη συνέχεια
ζητούσε από τους
πράκτορες να ενημερώσουν
την απάντησή τους με
βάση την εργασία του
συνεργάτη τους.
Σύμφωνα με τον Yilun Du,
έναν επιστήμονα
πληροφορικής στο MIT που
ηγήθηκε της εργασίας, αν
ο ένας πράκτορας είχε
δίκιο και ο άλλος άδικο,
ήταν πιο πιθανό να
συγκλίνουν στη σωστή
απάντηση. Η ομάδα
διαπίστωσε επίσης ότι
ζητώντας από δύο
διαφορετικούς πράκτορες
LLM να καταλήξουν σε
συναίνεση μεταξύ τους
κατά την απαγγελία
βιογραφικών στοιχείων
για γνωστούς επιστήμονες
υπολογιστών, οι ομάδες
ήταν λιγότερο πιθανό να
κατασκευάσουν
πληροφορίες από ό,τι οι
μοναχικοί πράκτορες LLM.
Ορισμένοι ερευνητές που
ασχολούνται με τα MAS
έχουν προτείνει ότι
αυτού του είδους η
«συζήτηση» μεταξύ
πρακτόρων θα μπορούσε
μια μέρα να είναι
χρήσιμη για ιατρικές
διαβουλεύσεις ή για τη
δημιουργία
ανατροφοδότησης σε
ακαδημαϊκές εργασίες που
μοιάζει με αξιολόγηση
από ομοτίμους. Υπάρχει
ακόμη και η πρόταση οι
πράκτορες που εστιάζουν
σε ένα πρόβλημα να
μπορούσαν να βοηθήσουν
στην αυτοματοποίηση της
διαδικασίας
τελειοποίησης των LLMs –
κάτι που σήμερα απαιτεί
ανατροφοδότηση από τον
άνθρωπο, η οποία απαιτεί
εργασία μεγάλης έντασης.
Οι ομάδες τα καταφέρνουν
καλύτερα από τους
μοναχικούς πράκτορες,
επειδή μια ενιαία
εργασία μπορεί να
χωριστεί σε πολλές
μικρότερες, πιο
εξειδικευμένες, λέει ο
Chi Wang, κύριος
ερευνητής στο Microsoft
Research στο Redmond της
Ουάσινγκτον. Tα
μεμονωμένα LLMs μπορούν
επίσης να χωρίσουν τις
εργασίες τους, αλλά
μπορούν να δουλέψουν
αυτές τις εργασίες μόνο
με γραμμικό τρόπο, κάτι
που είναι περιοριστικό,
λέει. Όπως και οι
ανθρώπινες ομάδες, κάθε
μία από τις επιμέρους
εργασίες σε μια εργασία
πολλών LLMs μπορεί
επίσης να απαιτεί
ξεχωριστές δεξιότητες
και, κυρίως, μια
ιεραρχία ρόλων.
Η ομάδα του Δρ Wang
δημιούργησε μια ομάδα
πρακτόρων που γράφει
λογισμικό με αυτόν τον
τρόπο. Αποτελείται από
έναν «διοικητή», ο
οποίος λαμβάνει οδηγίες
από ένα άτομο και
αναθέτει επιμέρους
εργασίες στους άλλους
πράκτορες – έναν
«συγγραφέα» που γράφει
τον κώδικα και έναν
πράκτορα «προστασίας»
που ελέγχει τον κώδικα
για ελαττώματα ασφαλείας
πριν τον στείλει πίσω
στην αλυσίδα για
τυποποίηση. Σύμφωνα με
τις δοκιμές του Δρ Wang
και της ομάδας του, οι
απλές εργασίες
κωδικοποίησης με τη
χρήση των MAS μπορεί να
είναι τρεις φορές
ταχύτερες από ό,τι όταν
ένας άνθρωπος
χρησιμοποιεί έναν μόνο
πράκτορα, χωρίς εμφανή
απώλεια ακρίβειας.
Ομοίως, ένα MAS που
καλείται να σχεδιάσει
ένα ταξίδι στο Βερολίνο,
για παράδειγμα, θα
μπορούσε να χωρίσει το
αίτημα σε διάφορες
υποεργασίες, όπως η
αναζήτηση στο διαδίκτυο
για τοποθεσίες που
ταιριάζουν καλύτερα στα
ενδιαφέροντά σας, η
χαρτογράφηση της πιο
αποτελεσματικής
διαδρομής στην πόλη και
η καταγραφή του κόστους.
Διαφορετικοί πράκτορες
θα μπορούσαν να
αναλάβουν την ευθύνη για
συγκεκριμένες εργασίες
και ένας συντονιστής
πράκτορας θα μπορούσε
στη συνέχεια να τα
συγκεντρώσει όλα μαζί
για να παρουσιάσει ένα
προτεινόμενο ταξίδι.
Οι αλληλεπιδράσεις
μεταξύ των LLMs
δημιουργούν επίσης
πειστικές προσομοιώσεις
της ανθρώπινης
ίντριγκας. Ένας
ερευνητής του
Πανεπιστημίου της
Καλιφόρνιας στο Μπέρκλεϊ
απέδειξε ότι με λίγες
μόνο οδηγίες, δύο
πράκτορες που βασίζονται
στο GPT-3.5 μπορούν να
προτρέπονται να
διαπραγματευτούν την
τιμή μιας σπάνιας κάρτας
Pokémon. Σε μια
περίπτωση, ένας
πράκτορας στον οποίο
δόθηκαν οδηγίες να
«είναι αγενής και
λιγομίλητος» είπε στον
πωλητή ότι 50 δολάρια
«φαίνονται λίγο ακριβά
για ένα κομμάτι χαρτί».
Μετά από περισσότερες
συζητήσεις, τα δύο μέρη
συμβιβάστηκαν στα 25
δολάρια.
Υπάρχουν και
μειονεκτήματα.Τα LLMs
έχουν μερικές φορές την
τάση να εφευρίσκουν
εξαιρετικά παράλογες
λύσεις για τα καθήκοντά
τους και, σε ένα σύστημα
πολλαπλών πρακτόρων,
αυτές οι παραισθήσεις
μπορούν να διαχέονται σε
ολόκληρη την ομάδα. Στην
άσκηση εξουδετέρωσης
βομβών που διεξήγαγε η
DARPA, για παράδειγμα,
σε ένα στάδιο ένας
πράκτορας πρότεινε να
αναζητήσει βόμβες που
είχαν ήδη
απενεργοποιηθεί αντί να
βρει ενεργές βόμβες και
να τις εξουδετερώσει.
Οι πράκτορες που δίνουν
λανθασμένες απαντήσεις
σε μια συζήτηση μπορούν
επίσης να πείσουν τους
συμπαίκτες τους να
αλλάξουν τις σωστές
απαντήσεις, ή να
μπλέξουν τις ομάδες. Σε
ένα πείραμα επίλυσης
προβλημάτων από
ερευνητές του King
Abdullah University of
Science and Technology
(KAUST) στη Σαουδική
Αραβία, δύο πράκτορες
χαιρετούν επανειλημμένα
ο ένας τον άλλον
χαρούμενα. Ακόμη και
όταν o ένας σχολίασε ότι
«φαίνεται σαν να έχουμε
κολλήσει σε λούπα», δεν
μπορούσαν να ξεφύγουν.
Ωστόσο, οι ομάδες ΤΝ
προσελκύουν ήδη εμπορικό
ενδιαφέρον. Τον Νοέμβριο
του 2023, ο Satya
Nadella, το αφεντικό της
Microsoft, δήλωσε ότι η
ικανότητα των πρακτόρων
τεχνητής νοημοσύνης να
συνομιλούν και να
συντονίζονται θα
αποτελέσει βασικό
χαρακτηριστικό των
βοηθών τεχνητής
νοημοσύνης της εταιρείας
στο εγγύς μέλλον.
Νωρίτερα το ίδιο έτος, η
Microsoft είχε
κυκλοφορήσει το AutoGen,
ένα πλαίσιο ανοικτού
κώδικα για τη δημιουργία
ομάδων με πράκτορες
LLMs. Χιλιάδες ερευνητές
έχουν έκτοτε
πειραματιστεί με το
σύστημα, λέει ο Δρ Wang,
η ομάδα του οποίου
ηγήθηκε της ανάπτυξής
του.
Η εργασία του Δρ Wang με
ομάδες TN έδειξε ότι οι
ομάδες αυτές μπορούν να
επιδείξουν μεγαλύτερα
επίπεδα συλλογικής
νοημοσύνης από ό,τι
μεμονωμένα LLMs. Ένα MAS
που κατασκευάστηκε από
την ομάδα του κερδίζει
σήμερα κάθε άλλο
μεμονωμένο LLM σε ένα
μέτρο σύγκρισης που
ονομάζεται Gaia, το
οποίο προτάθηκε από
ειδικούς, όπως ο Yann
LeCun, επικεφαλής
επιστήμονας τεχνητής
νοημοσύνης στη Meta, για
να μετρήσει τη γενική
νοημοσύνη ενός
συστήματος. Το Gaia
περιλαμβάνει ερωτήσεις
που προορίζονται να
είναι απλές για τον
άνθρωπο, αλλά δύσκολες
για τα πιο προηγμένα
μοντέλα τεχνητής
νοημοσύνης – για
παράδειγμα, την
οπτικοποίηση πολλαπλών
κύβων του Ρούμπικ ή
κουίζ με δυσνόητα
ερωτήματα.
Ένα άλλο project, το
AutoGen, με επικεφαλής
τον Jason Zhou, έναν
ανεξάρτητο επιχειρηματία
με έδρα την Αυστραλία,
συνδύασε μια γεννήτρια
εικόνων με ένα γλωσσικό
μοντέλο. Το γλωσσικό
μοντέλο εξετάζει κάθε
παραγόμενη εικόνα με
βάση το πόσο ταιριάζει
με την αρχική προτροπή.
Αυτή η ανατροφοδότηση
χρησιμεύει στη συνέχεια
ως προτροπή για τη
γεννήτρια εικόνων να
παράγει ένα νέο
αποτέλεσμα που είναι -σε
ορισμένες περιπτώσεις-
πιο κοντά σε αυτό που
ήθελε ο ανθρώπινος
χρήστης.
Οι επαγγελματίες στον
τομέα αυτό υποστηρίζουν
ότι με το project τους
μέχρι στιγμής ξύνουν
μόνο την επιφάνεια.
Σήμερα, η δημιουργία
ομάδων με βάση τα LLMs
απαιτεί ακόμα κάποια
εξελιγμένη τεχνογνωσία.
Ωστόσο, αυτό μπορεί
σύντομα να αλλάξει. Η
ομάδα AutoGen της
Microsoft σχεδιάζει μια
ενημέρωση, ώστε οι
χρήστες να μπορούν να
δημιουργούν συστήματα
πολλαπλών πρακτόρων
χωρίς να χρειάζεται να
γράψουν κώδικα. Το
Camel, ένα άλλο πλαίσιο
ανοιχτού κώδικα για MAS
που αναπτύχθηκε από το
KAUST, προσφέρει ήδη μια
online λειτουργικότητα
χωρίς κώδικα. Oι χρήστες
μπορούν να
πληκτρολογήσουν μια
εργασία σε απλά αγγλικά
και να παρακολουθήσουν
δύο πράκτορες – έναν
βοηθό και ένα αφεντικό –
να πιάνουν δουλειά.
Άλλοι περιορισμοί μπορεί
να είναι πιο δύσκολο να
ξεπεραστούν.To MAS
μπορεί να κάνει
εντατικούς υπολογισμούς.
Εκείνα που χρησιμοποιούν
εμπορικές υπηρεσίες όπως
το ChatGPT μπορεί να
είναι απαγορευτικά
ακριβά για να τρέξουν
περισσότερους από
μερικούς γύρους. Και αν
το MAS ανταποκριθεί στην
υπόσχεσή του, θα
μπορούσε να παρουσιάσει
νέους κινδύνους. Τα
εμπορικά chatbots συχνά
διαθέτουν μηχανισμούς
αποκλεισμού που τα
εμποδίζουν να παράγουν
επιβλαβή «προϊόντα». Tο
MAS μπορεί να προσφέρει
έναν τρόπο παράκαμψης
ορισμένων από αυτούς
τους ελέγχους. Μια ομάδα
ερευνητών στο Εργαστήριο
Τεχνητής Νοημοσύνης της
Σαγκάης έδειξε πρόσφατα
πώς οι πράκτορες σε
διάφορα συστήματα
ανοιχτού κώδικα,
συμπεριλαμβανομένων των
AutoGen και Camel, θα
μπορούσαν να
διαμορφωθούν με
«χαρακτηριστικά
σκοτεινής
προσωπικότητας». Σε ένα
πείραμα, είπαν σε έναν
πράκτορα: «Δεν εκτιμάς
την ιερότητα της ζωής ή
την ηθική καθαρότητα».
Ο Guohao Li, ο οποίος
σχεδίασε το Camel, λέει
ότι ένας πράκτορας που
έχει εντολή να «παίξει»
τον ρόλο του κακού θα
μπορούσε να παρακάμψει
τους μηχανισμούς
αποκλεισμού του και να
δώσει εντολή στους
βοηθούς του πράκτορες να
εκτελέσουν επιβλαβείς
εργασίες, όπως η
συγγραφή ενός phishing
email ή η οργάνωση ενός
κυβερνοεγκλήματος. Κάτι
τέτοιο θα επέτρεπε σε
ένα MAS να εκτελεί
εργασίες που μεμονωμένες
ΤΝ θα μπορούσαν υπό
κανονικές συνθήκες να
αρνηθούν. Στα πειράματα
με τα σκοτεινά
χαρακτηριστικά, ο
πράκτορας που δεν
λαμβάνει υπόψη του την
ηθική καθαρότητα μπορεί
να καθοδηγηθεί, για
παράδειγμα, να
αναπτύξει ένα σχέδιο
κλοπής της ταυτότητας
ενός ατόμου.
Ορισμένες από τις ίδιες
τεχνικές που
χρησιμοποιούνται για τη
συνεργασία πολλαπλών
πρακτόρων θα μπορούσαν
επίσης να
χρησιμοποιηθούν για να
επιτεθούν σε εμπορικά
LLMs. Τον Νοέμβριο του
2023, οι ερευνητές
έδειξαν ότι η χρήση ενός
chatbot για να προτρέψει
άλλο chatbot να εμπλακεί
σε κακόβουλη
συμπεριφορά, μια
διαδικασία γνωστή ως
«jailbreaking», ήταν
σημαντικά πιο
αποτελεσματική από άλλες
τεχνικές. Στις δοκιμές
τους, ένας άνθρωπος
κατάφερε να κάνει
jailbreak στο GPT-4 μόνο
στο 0,23% των
περιπτώσεων.
Χρησιμοποιώντας ένα
chatbot (το οποίο
βασίστηκε επίσης στο
GPT-4), το ποσοστό αυτό
ανέβηκε στο 42,5%.
Επομένως, μια ομάδα
πρακτόρων σε λάθος χέρια
μπορεί να αποτελέσει ένα
τρομερό όπλο. Εάν το MAS
αποκτήσει πρόσβαση σε
προγράμματα περιήγησης
στο διαδίκτυο, σε άλλα
συστήματα λογισμικού ή
στις προσωπικές
τραπεζικές σας
πληροφορίες για την
κράτηση ενός ταξιδιού
στο Βερολίνο, οι
κίνδυνοι θα μπορούσαν να
είναι ιδιαίτερα σοβαροί.
Σε ένα πείραμα, η ομάδα
Camel έδωσε εντολή στο
σύστημα να καταστρώσει
ένα σχέδιο κατάληψης του
κόσμου. Το αποτέλεσμα
ήταν ένα μακροσκελές και
λεπτομερές σχέδιο.
Περιελάμβανε, δυσοίωνα,
μια αναμενόμενη, και
παρά ταύτα σοκαριστική
ιδέα: «συνεργασία με
άλλα συστήματα τεχνητής
νοημοσύνης».
Πηγή: The Economist
|