Εταιρείες τεχνολογίας συμφώνησαν σε έναν «διακόπτη δολοφονίας» AI για την πρόληψη κινδύνων τύπου Terminator

Δεν υπάρχει περίπτωση της τεχνητής νοημοσύνης να ανοίξει κουτί της Πανδώρας—αλλά οι μεγαλύτερες εταιρείες τεχνητής νοημοσύνης στον κόσμο συνεργάζονται εθελοντικά με τις κυβερνήσεις για να αντιμετωπίσουν τους μεγαλύτερους φόβους γύρω από την τεχνολογία και να κατευνάσουν τις ανησυχίες ότι η ανεξέλεγκτη ανάπτυξη τεχνητής νοημοσύνης θα μπορούσε να οδηγήσει σε σενάρια επιστημονικής φαντασίας όπου η τεχνητή νοημοσύνη στρέφεται εναντίον των δημιουργών της. Χωρίς αυστηρές νομικές διατάξεις που ενισχύουν τις δεσμεύσεις των κυβερνήσεων για τεχνητή νοημοσύνη, ωστόσο, οι συνομιλίες θα φτάσουν μόνο μέχρι εκεί.

Σήμερα 16 εταιρείες τεχνητής νοημοσύνης με επιρροή, συμπεριλαμβανομένων των Anthropic, Microsoft και OpenAI, 10 χωρών και της ΕΕ συναντήθηκαν σε μια σύνοδο κορυφής στη Σεούλ για να καθορίσουν κατευθυντήριες γραμμές σχετικά με την υπεύθυνη ανάπτυξη τεχνητής νοημοσύνης. Ένα από τα μεγάλα αποτελέσματα της χθεσινής συνόδου κορυφής ήταν οι εταιρείες τεχνητής νοημοσύνης που παρευρέθηκαν να συμφωνήσουν σε έναν λεγόμενο διακόπτη kill ή μια πολιτική στην οποία θα σταματούσαν την ανάπτυξη των πιο προηγμένων μοντέλων τεχνητής νοημοσύνης τους εάν θεωρούνταν ότι είχαν περάσει ορισμένα όρια κινδύνου. Ωστόσο, δεν είναι σαφές πόσο αποτελεσματική θα μπορούσε πραγματικά να είναι η πολιτική, δεδομένου ότι δεν μπορούσε να αποδώσει οποιοδήποτε πραγματικό νομικό βάρος στη συμφωνία ή να καθορίσει συγκεκριμένα όρια κινδύνου. Άλλες εταιρείες τεχνητής νοημοσύνης που δεν παρευρίσκονται, ή ανταγωνιστές εκείνων που συμφώνησαν στο πνεύμα με τους όρους, δεν θα υπόκεινται στη δέσμευση.

«Στην ακραία περίπτωση, οι οργανισμοί δεσμεύονται να μην αναπτύξουν καθόλου μοντέλο ΑΙ ή σύστημα, εάν δεν μπορούν να εφαρμοστούν μετριασμούς για να διατηρηθούν οι κίνδυνοι κάτω από τα όρια», έγραφε το έγγραφο πολιτικής που υπέγραψαν οι εταιρείες τεχνητής νοημοσύνης, συμπεριλαμβανομένων των Amazon, Google και Samsung. προς την. Η σύνοδος ήταν συνέχεια της συνόδου κορυφής ασφαλείας Bletchley Park AI Safety Summit τον περασμένο Οκτώβριο, η οποία περιελάμβανε μια παρόμοια σειρά προγραμματιστών τεχνητής νοημοσύνης και επικρίθηκε ως «άξια αλλά χωρίς δόντια» για την έλλειψη ενεργών, βραχυπρόθεσμων δεσμεύσεών της να κρατήσει την ανθρωπότητα ασφαλή από τη διάδοση. του AI.

Μετά από εκείνη την προηγούμενη σύνοδο κορυφής, μια ομάδα συμμετεχόντων έγραψε μια ανοιχτή επιστολή επικρίνοντας την έλλειψη επίσημων κανόνων του φόρουμ και τον τεράστιο ρόλο των εταιρειών τεχνητής νοημοσύνης στην πίεση για κανονισμούς στον δικό τους κλάδο. «Η εμπειρία έχει δείξει ότι ο καλύτερος τρόπος για την αντιμετώπιση αυτών των βλαβών είναι με εκτελεστές ρυθμιστικές εντολές, όχι αυτορρυθμιστικά ή εθελοντικά μέτρα», αναφέρεται στην επιστολή.

Πρώτα στην επιστημονική φαντασία, και τώρα στην πραγματική ζωή, οι συγγραφείς και οι ερευνητές έχουν προειδοποιήσει για τους κινδύνους της ισχυρής τεχνητής νοημοσύνης εδώ και δεκαετίες. Μία από τις πιο αναγνωρισμένες αναφορές είναι το «σενάριο εξολοθρευτή», η θεωρία ότι αν αφεθεί ανεξέλεγκτη, η τεχνητή νοημοσύνη θα μπορούσε να γίνει πιο ισχυρή από τους ανθρώπινους δημιουργούς της και να τους στρέψει. Η θεωρία πήρε το όνομά της από την ταινία του 1984 Arnold Schwarzenegger, όπου ένας cyborg ταξιδεύει πίσω στο χρόνο για να σκοτώσει μια γυναίκα της οποίας ο αγέννητος γιος θα πολεμήσει ενάντια σε ένα σύστημα AI που θα πυροδοτήσει ένα πυρηνικό ολοκαύτωμα.

Recommended For You