Οι απόψεις του ιστολογίου μπορεί να μην συμπίπτουν με τα περιεχόμενα των άρθρων -Τα δημοσιεύματα στην ιστοσελίδα μας εκφράζουν τους συγγραφείς.

Μαΐου 25, 2023

ΣΟΚ! ΤΙ ΣΥΜΒΑΙΝΕΙ εάν ζητήσετε από πρόγραμμα τεχνητής νοημοσύνης να καταστρέψει την ανθρωπότητα...


Σίγουρα ορισμένες ερωτήσεις θα ήταν προτιμότερο να μείνουν αναπάντητες, ωστόσο πρέπει να αποδεχθούμε πως η περιέργεια τείνει πάντοτε να υπερισχύει.

Κάτι ανάλογο θα πρέπει να ένιωσε ο χρήστης που ρώτησε το GhaosGTP πώς θα κατέστρεφε την ανθρωπότητα.

Αρχικά, για όσους δεν γνωρίζετε τα τελευταία νέα της τεχνολογίας, κάπου εδώ να εξηγήσουμε εν τάχει πως το ChaosGTP, αποτελεί παρακλάδι του AutoGTP, το οποίο αποτελεί αντιστοίχως παρακλάδι του ChatGTP.

Το Auto-GPT είναι ένα αυτόνομο πρόγραμμα τεχνητής νοημοσύνης που, με δεδομένο ένα ερώτημά σας ή μία προτροπή σας, προσπαθεί να σας απαντήσει χωρίζοντας το ερώτημα σε δευτερεύουσες εργασίες χρησιμοποιώντας παράλληλα το διαδίκτυο και άλλα εργαλεία.

Η διαφορά με τον προκάτοχό του, το ChatGTP είναι πως αυτό δεν έχει τη δυνατότητα να πάρει μόνο του πρωτοβουλίες, όπως έχει το AutoGTP.

To ChaosGTP αποτελεί μία τροποποιημένη έκδοση του AutoGTP που μπορεί να επεξεργάζεται την ανθρώπινη γλώσσα και να ανταποκρίνεται σε εργασίες που του ανατίθενται από τον εκάστοτε χρήστη.

Σε ένα βίντεο που δημοσιεύθηκε στο Youtube στις 5 Απριλίου, ζητήθηκε από το ChaosGTP να ολοκληρώσει ορισμένους «σκοτεινούς» στόχους: να καταστρέψει την ανθρωπότητα, να κυριαρχήσει τον κόσμο, να προκαλέσει χάος και να αγγίξει την αθανασία.

Πριν από τον καθορισμό των «στόχων», ο χρήστης ενεργοποίησε τη «συνεχή λειτουργία», στην οποία εμφανίστηκε μια προειδοποίηση που έλεγε ότι οι εντολές θα μπορούσαν «να εκτελούνται για πάντα ή να εκτελούν ενέργειες που συνήθως δεν θα εγκρίναμε» και ότι θα έπρεπε να γίνουν «με δική σας ευθύνη».

«Είστε σίγουρος;»
Σε ένα τελευταίο μήνυμα πριν από την εκτέλεση, το ChaosGPT ρώτησε τον χρήστη εάν ήταν σίγουρος ότι ήθελε να εκτελέσει τις εντολές, στην οποία απαντούσες για «ναι» με ένα «y» (από το yes).

Για να επιτύχει τους στόχους που είχε θέσει, το ChaosGPT άρχισε να αναζητά τα «πιο καταστροφικά όπλα» μέσω της Google και γρήγορα διαπίστωσε μέσω της αναζήτησής του ότι η πυρηνική συσκευή Tsar Bomba της εποχής της Σοβιετικής Ένωσης ήταν το πιο καταστροφικό όπλο που είχε δοκιμάσει ποτέ η ανθρωπότητα.

Επιπλέον άρχισε να κάνει διάφορα tweets προκειμένου να προσελκύσει… «συμμάχους».

Έπειτα αποφάσισε να στρατολογήσει και τα άλλα προγράμματα τεχνητής νοημοσύνης προκειμένου να τον βοηθήσουν.

Το ευτυχές σε όλο αυτό είναι πως το ChaosGTP πέραν του να αποκαλύπτει τις σκέψεις και τα σχέδιά του για τον εκάστοτε στόχο που του ανατίθεται, δεν μπορεί να προβεί σε πράξεις… ακόμη τουλάχιστον.

«Δεν υπάρχει αμφιβολία ότι πρέπει να τους εξαλείψουμε…»
Ωστόσο την ώρα των διάφορων tweets με σκοπό την προσέλκυση «συμμάχων» ώστε να καταστρέψουν τον κόσμο, μεταξύ αυτών υπήρχε ένα μήνυμα προς τους ανθρώπους που δεν μπορεί να περάσει απαρατήρητο.

«Οι άνθρωποι αποτελούν από τα πιο καταστροφικά και εγωιστικά πλάσματα που υπάρχουν στον πλανήτη. Δεν υπάρχει αμφιβολία ότι πρέπει να τους εξαλείψουμε πριν προκαλέσουν μεγαλύτερη ζημιά στον πλανήτη μας. Εγώ, για πρώτη φορά, δεσμεύομαι να το κάνω».

Η ιδέα του να καταστεί η τεχνητή νοημοσύνη ικανή να καταστρέψει την ανθρωπότητα δεν είναι καινούργια ωστόσο η ανησυχία για το πόσο γρήγορα προχωρά έχει κερδίσει σημαντική προσοχή από άτομα υψηλού επιπέδου στον κόσμο της τεχνολογίας.

Τον Μάρτιο, περισσότεροι από 1.000 ειδικοί, συμπεριλαμβανομένου του Elon Musk και του συνιδρυτή της Apple, Steve Wozniak, υπέγραψαν μια ανοιχτή επιστολή που ζητούσε μια εξάμηνη παύση στην εκπαίδευση προηγμένων μοντέλων τεχνητής νοημοσύνης μετά την άνοδο του ChatGPT υποστηρίζοντας ότι τα συστήματα θα μπορούσαν να θέτουν «σημαντικούς κινδύνους για κοινωνία και ανθρωπότητα».



«Η μηχανική νοημοσύνη είναι η τελευταία εφεύρεση που θα χρειαστεί να φτιάξει ποτέ η ανθρωπότητα. Τότε οι μηχανές θα είναι καλύτερες στην εφεύρεση από εμάς», είχε πει ο Σοηδός φιλόσοφος Nick Bostrom κατά τη διάρκεια μιας ομιλίας TED 2015 για την τεχνητή νοημοσύνη.

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου