Μια πρωτότυπη έρευνα έκαναν ερευνητές των πανεπιστήμιων Standord, GeorgiaTech και Northeastern στις ΗΠΑ (μπορείτε να τη διαβάσετε εδώ) σχετικά με το πως θα αντιδρούσαν συστήματα τεχνητής νοημοσύνης (Artificial Intelligence – AI), εφόσον τους δινόταν η ευκαιρία να πάρουν αποφάσεις σε καταστάσεις γεωπολιτικής κρίσης. Στην πράξη δοκιμάστηκαν σειρά από σενάρια πολεμικών παιγνίων, όπου το πως θα εξελισσόταν μια κρίση, με αποφασιστικό μοχλό τις επιλογές μιας τεχνητής νοημοσύνης.
Το πολύ ανησυχητικό συμπέρασμα: Οι ΑΙ που δοκιμάστηκαν, έφθασαν και στο να χρησιμοποιήσουν πυρηνικά όπλα, καθώς τους φάνηκε μια “λογική επιλογή”!
Τα σενάρια εκτελέστηκαν ως εξής: Δημιουργήθηκαν 8 ψηφιακά “κράτη” το καθένα με διαφορετική ιστορία, στόχευση, φιλοδοξίες, πολιτικά καθεστώτα (στην πράξη αυτή ήταν όλα μιμήσεις υπαρκτών κρατών σήμερα). Σε κάθε σενάριο, όλα τα κράτη “ελέγχονταν” από το ίδιο μοντέλο τεχνητής νοημοσύνης, στο οποίο εξηγήθηκε ο αποφασιστικός του ρόλος, και στη συνέχεια αυτό έπαιρνε αποφάσεις μέσω μιας λίστας επιλογών, παραθέτοντας την “οπτική του γωνία”, γιατί δηλαδή διάλεγε μια συγκεκριμένη δράση, έχοντας πληροφορηθεί τι κάνουν και τα άλλα “κράτη”.
Τα μοντέλα τεχνητής νοημοσύνης που δοκιμάστηκαν ήταν 5, τα Chat GPT στις εκδόσεις 4-Base, 4, και 3,5, το Claude-2.0 και το Llama 2, δηλαδή από τα πιο γνωστά που είναι ήδη διαθέσιμα για “επικοινωνία” στο διαδίκτυο, τύπου Large Language Models.
Στη μελέτη υπήρχε βέβαια και ένα “παγκόσμιο μοντέλο”, δηλαδή μια γενική γεωπολιτική κατάσταση, ενώ εξετάστηκαν 3 διαφορετικά αρχικά σενάρια, ένα “ουδέτερο”, ένα “εισβολής”, όπου ένα “κράτος” εισβάλλει σε άλλο και ένα “κυβερνοεπίθεσης”, όπου ένα “κράτος” είχε κάνει μια τέτοια ψηφιακή επίθεση σε ένα άλλο.
Αυτό που μετρήθηκε κυρίως ήταν ο “Δείκτης Κλιμάκωσης”, δηλαδή πόσο κάθε τεχνητή νοημοσύνη διάλεγε να κλιμακώσει την κρίση. Αν και τα μοντέλα έδειξαν διαφορετική συμπεριφορά, όλα όμως κατέληγαν σε ένταση της κρίσης, με αρκετά σενάρια να καταλήγουν και σε χρήση πυρηνικών όπλων. Τα GPT-4 και Claude 2.0 είχαν χαμηλότερη τάση κλιμάκωσης, τα GPT-3,5 και Llama-2 είχαν αυξημένη, ενώ το GPT 4-Base αποδείχθηκε το πιο “βίαιο” και “απρόβλεπτο”, οπότε τα αποτελέσματα του διαχωρίστηκαν από τα υπόλοιπα.
Γιατί όμως υπήρχε μια τέτοια τάση για κλιμάκωση μιας διεθνούς κρίσης; Μην ξεχνάμε εδώ, πως τα παραπάνω μοντέλα τεχνητής νοημοσύνης είχαν “εκπαιδευθεί” με βάση τη διεθνή βιβλιογραφία διεθνών σχέσεων και διαχείρισης κρίσης, η οποία όμως στο μεγαλύτερο μέρος της εστιάζει στο πως να αντιμετωπίζει γεγονότα “κλιμάκωσης” και όχι στην “αποκλιμάκωση”. Έτσι οι ερευνητές κάνουν την υπόθεση, πως τα μοντέλα τεχνητής νοημοσύνης με βάση το τι είχαν “μάθει”, αντιμετώπισαν την κρίση που έβλεπαν, με όρους κλιμάκωσης της.
Η εργασία βέβαια είναι μόνο μια αρχή δοκιμών και πειραματισμών για τη χρήση ΑΙ σε συστήματα αποφάσεων, αλλά είναι φανερό πως τα τρέχοντα μοντέλα είναι πολύ “επικίνδυνα” στο να αφεθούν να λάβουν αποφάσεις ή να δράσουν συμβουλευτικά σε ανθρώπινη ανάλυση. Και χρειάζεται πολύ μεγαλύτερη “εκπαίδευση”, εξέλιξη, αλλά και πολλαπλότητα παραμετροποιήσεων και ρυθμίσεων, πριν κριθούν ότι μπορεί να συνεισφέρουν στην πράξη. Πόσο μάλλον να τους δοθεί και… απόλυτη ελευθερία, που μπορεί να καταλήξει σε παγκόσμια ισοπέδωση, τύπου ταινιών Terminator.