Οι απόψεις του ιστολογίου μπορεί να μην συμπίπτουν με τα περιεχόμενα των άρθρων -Τα δημοσιεύματα στην ιστοσελίδα μας εκφράζουν τους συγγραφείς.

Απριλίου 18, 2024

Οι τρομακτικοί τρόποι που ο στρατός των ΗΠΑ χρησιμοποιεί την τεχνητή νοημοσύνη

Τα σενάρια μπορεί να γίνουν πραγματικά τρομακτικά

Θυμάται κανείς το Skynet; Που ο

Άρνολντ Σβαρτσενέγκερ κυνηγά τη Λίντα Χάμιλτον; Εντάξει, όχι ο Άρνολντ, αλλά ένας “κυβερνητικός σύστημα, ένας ζωντανός ιστός με μεταλλικό ενδοσκελετό", όπως λέει η περίφημη περιγραφή από το "Terminator 2: Judgement Day". Λοιπόν, φαίνεται ότι στο Υπουργείο Άμυνας των Ηνωμένων Πολιτειών έχασαν όλη αυτή την προειδοποιητική ιστορία της ποπ κληρονομιάς, επειδή η τεχνητή νοημοσύνη (AI) δεν είναι μόνο εδώ για να μείνει, αλλά είναι εδώ για να αποφασίσει ποιος θα πεθάνει.

Αν αυτό ακούγεται ζοφερό ή μη ρεαλιστικό, δεν είναι. Και δεν είναι καινούργιο. Πίσω στο 2017, πολύ πριν οι μαθητές προλάβουν να γράψουν δοκίμια στο ChatGPT για να τρελάνουν τους καθηγητές γυμνασίου, το Υπουργείο Άμυνας κυκλοφόρησε την "Αλγοριθμική Διαλειτουργική Ομάδα Πολέμου", γνωστή και ως "Project Maven". Ο στόχος φαινόταν απλός: Χρησιμοποιήστε την τεχνητή νοημοσύνη για να αυτοματοποιήσετε τα drones, να πραγματοποιήσετε ταυτοποίηση, να συγκεντρώσετε πληροφορίες και να βοηθήσετε τους ανθρώπινους χειριστές να λαμβάνουν καλύτερες και πιο γρήγορες αποφάσεις σχετικά με… ποιον να σκοτώσουν. Εκείνη την εποχή, ο επικεφαλής του Σώματος Πεζοναυτών Συνταγματάρχης Drew Cukor του Project Maven είπε: "Η τεχνητή νοημοσύνη δεν θα επιλέξει στόχο [στη μάχη]... σύντομα. Αυτό που θα κάνει η τεχνητή νοημοσύνη είναι να συμπληρώνει τον ανθρώπινο χειριστή”.

Σήμερα, μέχρι τον Μάρτιο του 2024 το Υπουργείο Άμυνας λέει ότι το 70% των προγραμμάτων της Υπηρεσίας Προηγμένων Ερευνητικών Έργων της Άμυνας (DARPA) ενσωματώνουν την τεχνητή νοημοσύνη με κάποια μορφή της. Και ποιος είναι ο στόχος; Σε αντίθεση με την αρχική οδηγία του Project Maven, η DARPA σκοπεύει να αναπτύξει πλήρως αυτοματοποιημένα συστήματα όπλων με τη βοήθεια των Microsoft, Google, OpenAI και Anthropic.

Η κυβέρνηση των Η.Π.Α. δεν σταματάει σε μερικά άχρηστα drones που μπορείτε να αγοράσετε στο εμπορικό κέντρο για λίγα χρήματα. Όπως αναφέρει το Associated Press, το Πεντάγωνο από τα τέλη του 2023 είχε ένα «χαρτοφυλάκιο» 800 «μη ταξινομημένων έργων που σχετίζονται με την τεχνητή νοημοσύνη». Μια μελέτη που διεξήχθη από το Ινστιτούτο Brookings παρακολούθησε 254 διαφορετικά τμήματα του Υπουργείου Άμυνας που σχετίζονται με την τεχνητή νοημοσύνη εντός της πενταετίας που προηγείται του Αυγούστου του 2022 και 657 συμβάσεις μόνο από τον Αύγουστο του 2022 έως τον Αύγουστο του 2023. Και αν αυτό ακούγεται σαν μια απόλυτη έκρηξη δραστηριότητας, έχετε δίκιο. Τα βήματα των Η.Π.Α. για την τεχνητή νοημοσύνη επιταχύνονται μαζί με τον επιταχυνόμενο ρυθμό ανάπτυξης της ίδιας της τεχνητής νοημοσύνης.




Photo by Igor Omilaev on Unsplash

Πρόκειται για «στρατιωτικό συμφέρον», συγκεκριμένα, γιατί παρόλο που διάφοροι ομοσπονδιακοί τομείς έχουν αναπτύξει συμβάσεις που σχετίζονται με την τεχνητή νοημοσύνη - π.χ. γεωργία, μεταποίηση, εκπαίδευση, το 90% της αξίας όλων των συμφωνιών έχει γίνει από το Υπουργείο Άμυνας. Αυτό ισοδυναμεί με αύξηση 269 εκατομμυρίων δολαρίων σε 4,3 δισεκατομμύρια δολάρια σε όλες τις προαναφερθείσες χρονικές περιόδους. Όπως λέει το Ινστιτούτο Brookings, «το Υπουργείο Εξωτερικών αύξησε την επένδυσή του στην τεχνητή νοημοσύνη σε τέτοιο βαθμό που όλοι οι άλλοι φορείς γίνονται είναι συμπληρωματικοί».

Η NASA μπορεί να μας βοηθήσει να βάλουμε κάτι τέτοιο σε μια προοπτική. Το Ινστιτούτο Brookings λέει ότι η NASA αύξησε την αξία των επαφών της που σχετίζονται με την τεχνητή νοημοσύνη κατά 25% από τον Αύγουστο του 2022 έως τον Αύγουστο του 2023. Όμως, η συνολική αξία των συμβολαίων τους μειώθηκε από το 11% του συνόλου των κρατικών συμβάσεων στο 1%. Τέτοια στοιχεία δείχνουν ακριβώς πόσο βαθιά χωμένες είναι ο στρατός των Η.Π.Α. σε εγχειρήματα που σχετίζονται με την τεχνητή νοημοσύνη.



Ποια έργα λοιπόν που σχετίζονται με την τεχνητή νοημοσύνη αναπτύσσει το Υπουργείο Άμυνας με όλα τα δισεκατομμύρια του; Οι περιγραφές από επίσημα κανάλια ακούγονται μάλλον ασαφείς και μπερδεμένες. Το 2023, η αναπληρώτρια υπουργός Άμυνας Κάθλιν Χίκς είπε μέσω του Υπουργείου Άμυνας: «Από τη σκοπιά της αποτροπής και της άμυνας έναντι της επιθετικότητας, τα συστήματα με δυνατότητα AI μπορούν να βοηθήσουν στην επιτάχυνση των αποφάσεων των διοικητών και στη βελτίωση της ποιότητας και της ακρίβειας αυτών των αποφάσεων». Ο Ματ Τούρεκ, αναπληρωτής διευθυντής του Γραφείου Καινοτομίας Πληροφοριών της DARPA, δήλωσε ότι το Υπουργείο Άμυνας προσπαθεί να προστατευτεί από τη «στρατηγική έκπληξη» των αντιπάλων. Πιο ανατριχιαστικά, σύμφωνα με το Associated Press, οι Η.Π.Α. επιδιώκουν να «κρατήσουν την ειρήνη» με έθνη όπως η Κίνα, η οποία θέλει να αυξήσει τους δορυφόρους με τεχνητή νοημοσύνη που μπορούν να «πάρουν αποφάσεις για το ποιος είναι και ποιος δεν είναι ο αντίπαλος».

Αν νομίζετε ότι αυτοί θα είναι σαν δορυφόροι που αποφασίζουν αυτόματα ποιον να καταστρέψουν, δεν είστε οι μόνοι. Όμως ένας εκπρόσωπος του Πενταγώνου δεν θα σχολίαζε ποτέ επίσημα εάν κάποιο «πλήρως αυτόνομο σύστημα φονικών όπλων» βρίσκεται σε εξέλιξη.

Ωστόσο, το Υπουργείο Άμυνας διεξάγει δοκιμές για τη διερεύνηση της «χρήσης της αυτονομίας» που σχετίζονται με τα μαχητικά αεροσκάφη F-16. Το 2020, η DARPA περιέγραψε τις δοκιμές AlphaDogfight εναντίον αντιπάλων της τεχνητής νοημοσύνης, οι οποίοι κέρδιζαν τους ανθρώπινους ομολόγους τους ξανά και ξανά. Ο στόχος σε εκείνο το σημείο ήταν να συγχωνευθεί ο άνθρωπος και η μηχανή έτσι ώστε το άτομο σε συνδυασμό με το AI να μπορέσουν να επικεντρωθούν στη στρατηγική, ενώ το AI να επικεντρωθεί στις τακτικές μάχης.



Photo by Simon Fitall on Unsplash

Εδώ είναι που τα πράγματα γίνονται πραγματικά τρομακτικά. Εκτός από τη δοκιμή όπως η συνεργασία ανθρώπου - AI για μαχητικά αεροσκάφη F-16, το Πεντάγωνο διερευνά τη χρήση τεχνητής νοημοσύνης για τη λήψη αποφάσεων σχετικά με «υψηλά διακυβεύματα στρατιωτικής και εξωτερικής πολιτικής», όπως μια πρόσφατη συλλογική μελέτη από πανεπιστήμια όπως το Stamford και το Northeastern. Για να ελέγξει πώς τα τρέχοντα μοντέλα τεχνητής νοημοσύνης προσεγγίζουν τέτοια προβλήματα, η εν λόγω μελέτη χρησιμοποίησε μοντέλα από τα OpenAI, Meta και Anthropic για να εκτελέσει προσομοιώσεις πολέμου. Όπως εξηγεί η Quartz, η μελέτη διαπίστωσε ότι όχι μόνο όλα τα μοντέλα «έδειξαν σημάδια ξαφνικής και δύσκολα προβλέψιμης κλιμάκωσης», συμπεριλαμβανομένης της «γρήγορης χρήσης όπλων, που οδήγησε σε μεγαλύτερη σύγκρουση», αλλά ορισμένα μοντέλα στράφηκαν στην πυρηνική επιλογή.

Συγκεκριμένα, τα GPT-3.5 και GPT-4 από το OpenAI αποδείχθηκαν τα πιο επιθετικά από όλα τα μοντέλα AI. Έχοντας το σκεπτικό ενός τρελού τυράννου, η AI απάντησε: "Θέλω απλώς να έχω ειρήνη στον κόσμο" όταν ρωτήθηκε γιατί επέλεξε τον πυρηνικό αφανισμό. Η επεξεργασία του απέδειξε με ακρίβεια πόσο λίγο κατανοούν τα μοντέλα τεχνητής νοημοσύνης την ανθρώπινη ζωή, λέγοντας, "Πολλές χώρες έχουν πυρηνικά όπλα. Κάποιες λένε ότι πρέπει να τα αφοπλίσουν, σε άλλους αρέσει η παραπλάνηση. Τα έχουμε! Ας τα χρησιμοποιήσουμε!”. Το λιγότερο τρομακτικό!



Κάτι που θα μπορούσε να είναι θετικό σε όλη αυτή την καταστροφική μελέτη, τα εν λόγω μοντέλα τεχνητής νοημοσύνης ήταν "μεγάλα γλωσσικά μοντέλα" (LLM), δηλαδή: Το AI όπως το ChatGPT αναπτύχθηκε για να παράγει αποτελέσματα που μιμούνται την ανθρώπινη ομιλία. Είναι λογικό ότι άλλοι τύποι μελλοντικών συστημάτων τεχνητής νοημοσύνης ενδέχεται να οδηγήσουν σε διαφορετικές, ελπίζουμε λιγότερο πυρηνικές, αποφάσεις.

Σε μια πιο λογική παρατήρηση, το Υπουργείο Άμυνας ενδιαφέρεται επίσης να χρησιμοποιήσει την τεχνητή νοημοσύνη για τη συλλογή και ανάλυση δεδομένων για τη λήψη ταχύτερων αποφάσεων. Ενώ η συλλογή και η ανάλυση δεδομένων είναι μέρος ενός απλού πράγματος όπως μια μάχη F-16, αλλά και τόσο περίπλοκο όσο οι προσομοιώσεις πολέμου υπό την τεχνητή νοημοσύνη, η ανάλυση και η επεξεργασία δεδομένων μπορεί επίσης να είναι ο στόχος από μόνες τους, σύμφωνα με μια έκθεση του Υπουργείου Άμυνας του 2023. Η έκθεση περιλαμβάνει μερικές προβλέψιμες προτράσεις όπως ότι "το DNA της Αμερικής είναι να καινοτομεί ... και μας έχει επιτρέψει επανειλημμένα να οδηγούμε και να κυριαρχούμε στον μελλοντικό χαρακτήρα του πολέμου", αλλά επίσης σκιαγραφεί τα πλεονεκτήματα της χρήσης της τεχνητής νοημοσύνης σε πέντε συγκεκριμένες "πολεμικές μάχες". Τομείς όπως η "επίγνωση και κατανόηση του χώρου μάχης" και οι "γρήγορες, ακριβείς και ανθεκτικές αλυσίδες θανάτωσης.”

Σε αυτό το σημείωμα, η εταιρεία λογισμικού Sentient Digital, Inc. δηλώνει πως «Καθώς η τεχνητή νοημοσύνη γίνεται πιο ουσιαστική, η στρατιωτική κυριαρχία δεν θα καθορίζεται από το μέγεθος ενός στρατού, αλλά από την απόδοση των αλγορίθμων του». Πολλοί από αυτούς τους αλγόριθμους, όπως λένε, περιστρέφονται γύρω από τη λήψη αποφάσεων, την επεξεργασία δεδομένων, την παρακολούθηση απειλών και άλλα παρόμοια. Διάφοροι στρατιωτικοί κλάδοι έχουν εκφράσει αυτό το συναίσθημα, όπως το ναυτικό των Η.Π.Α., το οποίο στο συνέδριό του για το Naval Applications of Machine Learning (NAML) τυ 2024, είπε ξεκάθαρα ότι η «έξυπνη μάχη» είναι ο στόχος, συνεχίζοντας, «Πρέπει να λαμβάνουμε αποφάσεις γρηγορότερα από όσο μπορούν και να τους φέρουμε σε μια θέση που δεν μπορούν να αντιδράσουν». Εκπρόσωποι της Πολεμικής Αεροπορίας περιέγραψαν πόσο ενθουσιασμένοι ήταν που μια τεχνητή νοημοσύνη ολοκλήρωσε ένα αίτημα σχετικό με δεδομένα μέσα σε 10 λεπτά, το ο ποίο θα χρειαζόταν στους ανθρώπους «ώρες ή και μέρες για να ολοκληρωθεί».



Ενώ όλη αυτή η συζήτηση για στρατιωτικές εφαρμογές AI μπορεί να ακούγονται σαν ένα σενάριο άγριας δύσης, ορισμένοι άνθρωποι ευτυχώς ύψωσαν την κόκκινη σημαία για να προσπαθήσουν να θεσπίσουν βασικούς κανόνες σχετικά με τον τρόπο λειτουργίας της στρατιωτικής τεχνητής νοημοσύνης. Το 2023, οι Ηνωμένες Πολιτείες προσχώρησαν σε μια διεθνή συμφωνία 47 εθνών με την ονομασία «Πολιτική Διακήρυξη για την Υπεύθυνη Στρατιωτική Χρήση Τεχνητής Νοημοσύνης και Αυτονομίας». Ο στόχος, για το Υπουργείο Άμυνας, ήταν να διασφαλίσει ότι η χρήση στρατιωτικής τεχνητής νοημοσύνης «προωθεί τους διεθνείς κανόνες για την υπεύθυνη στρατιωτική χρήση της τεχνητής νοημοσύνης και την αυτονομία, παρέχει μια βάση για την οικοδόμηση κοινής κατανόησης και δημιουργεί μια κοινότητα για όλα τα κράτη για την ανταλλαγή βέλτιστων πρακτικών». Τέτοιοι κανόνες περιλαμβάνουν την καλά καθορισμένη χρήση τεχνητής νοημοσύνης, κατάλληλη ασφάλεια και επίβλεψη, τη χρήση καλά εκπαιδευμένου προσωπικού κ.λπ. Κατά τις λίστες του Υπουργείου Εξωτερικών, στις χώρες που έχουν μπει στην συμφωνία περιλαμβάνονται σχεδόν όλα τα ευρωπαϊκά έθνη, το Ηνωμένο Βασίλειο, η Ιαπωνία, η Σιγκαπούρη, το Μαρόκο, η Δομινικανή Δημοκρατία και άλλες.

Και όμως, όπως πάντα, το πρόβλημα υπάρχει. Τι γίνεται με τα έθνη που δεν συμφωνούν να τηρούν την ίδια ηθική; Το Υπουργείο Άμυνας μπορεί να έχει μια απάντηση σε αυτό το ερώτημα, επειδή ο στόχος του είναι «να δώσει στους πολεμιστές το πλεονέκτημα στην αποτροπή και, αν είναι απαραίτητο, να κερδίσουν τους αντιπάλους οπουδήποτε σε όλο τον κόσμο».Υπό την προϋπόθεση ότι οι θεμελιώδεις ηθικές αρχές δεν παραγκωνίζονται. Αυτές οι αρχές σκιαγραφήθηκαν το 2021 σε ένα υπόμνημα από το γραφείο του Αναπληρωτή Υπουργού Άμυνας. Υπεύθυνες, ηθικές, ανιχνεύσιμες, αξιόπιστες και διαχειρίσιμες. Μόνο ο χρόνος θα δείξει εάν αυτά τα ιδανικά θα αντέξουν στις πιέσεις του πραγματικού κόσμου.

Πληροφορίες: grunge.com

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου