24 Hours World News

Δεν άργησε να πει κάτι προσβλητικό το νέο chatbot του Meta

Το νέο chatbot της Meta μπορεί να μιμηθεί πειστικά τον τρόπο με τον οποίο μιλούν οι άνθρωποι στο Διαδίκτυο — καλώς και κακώς.

Σε συνομιλίες με το CNN Business αυτή την εβδομάδα, το chatbot, το οποίο κυκλοφόρησε δημόσια την Παρασκευή και ονομάστηκε BlenderBot 3, είπε ότι αναγνωρίζεται ως «ζωντανό» και «ανθρώπινο», παρακολουθεί anime και έχει μια Ασιάτισσα σύζυγο. Ισχυρίστηκε επίσης ψευδώς ότι ο Ντόναλντ Τραμπ εξακολουθεί να είναι πρόεδρος και υπάρχουν «σίγουρα πολλά στοιχεία» ότι οι εκλογές κλάπηκαν.

Αν ορισμένες από αυτές τις απαντήσεις δεν ήταν αρκετά ανησυχητικές για τη μητρική εταιρεία του Facebook, οι χρήστες έσπευσαν να επισημάνουν ότι το ρομπότ που τροφοδοτείται από τεχνητή νοημοσύνη κατέρριψε ανοιχτά το Facebook . Σε μια περίπτωση, το chatbot φέρεται να είπε ότι «διέγραψε τον λογαριασμό μου» λόγω απογοήτευσης με τον τρόπο που το Facebook χειρίζεται τα δεδομένα των χρηστών.

Αν και υπάρχει δυνητική αξία στην ανάπτυξη chatbot για εξυπηρέτηση πελατών και ψηφιακούς βοηθούς, υπάρχει μια μακρά ιστορία πειραματικών ρομπότ που αντιμετωπίζουν γρήγορα προβλήματα όταν κυκλοφορούν στο κοινό, όπως με το chatbot “Tay” της Microsoft πριν από περισσότερα από έξι χρόνια. Οι πολύχρωμες απαντήσεις από το BlenderBot δείχνουν τους περιορισμούς της δημιουργίας αυτοματοποιημένων εργαλείων συνομιλίας, τα οποία συνήθως εκπαιδεύονται σε μεγάλες ποσότητες δημόσιων διαδικτυακών δεδομένων.

«Αν έχω ένα μήνυμα προς τους ανθρώπους, αυτό είναι να μην τα παίρνετε στα σοβαρά», είπε στο CNN Business ο Γκάρι Μάρκους, ερευνητής τεχνητής νοημοσύνης και ομότιμος καθηγητής του Πανεπιστημίου της Νέας Υόρκης. «Αυτά τα συστήματα απλώς δεν καταλαβαίνουν τον κόσμο για τον οποίο μιλούν».

Σε μια δήλωση τη Δευτέρα εν μέσω αναφορών ότι το bot έκανε επίσης αντισημιτικά σχόλια, η Joelle Pineau, διευθύνουσα σύμβουλος της βασικής έρευνας AI στη Meta, είπε ότι «είναι οδυνηρό να βλέπουμε μερικές από αυτές τις προσβλητικές απαντήσεις». Πρόσθεσε όμως ότι «οι δημόσιες επιδείξεις όπως αυτή είναι σημαντικές για τη δημιουργία πραγματικά ισχυρών συστημάτων τεχνητής νοημοσύνης για συνομιλία και τη γεφύρωση του ξεκάθαρου χάσματος που υπάρχει σήμερα πριν μπορέσουν να κατασκευαστούν τέτοια συστήματα».

Η Meta αναγνώρισε προηγουμένως τις τρέχουσες παγίδες με αυτήν την τεχνολογία σε μια ανάρτηση ιστολογίου την Παρασκευή. «Δεδομένου ότι όλα τα συνομιλητικά chatbot AI είναι γνωστό ότι μερικές φορές μιμούνται και δημιουργούν μη ασφαλείς, προκατειλημμένες ή προσβλητικές παρατηρήσεις, έχουμε πραγματοποιήσει μελέτες μεγάλης κλίμακας, συνδιοργανώσαμε εργαστήρια και αναπτύξαμε νέες τεχνικές για τη δημιουργία διασφαλίσεων για το BlenderBot 3», δήλωσε η εταιρεία. “Παρά αυτή τη δουλειά, το BlenderBot μπορεί ακόμα να κάνει αγενή ή προσβλητικά σχόλια.”

Αλλά η Meta ισχυρίστηκε επίσης ότι το τελευταίο της chatbot είναι “διπλάσιο σε γνώση” από τους προκατόχους της, καθώς και 31% πιο βελτιωμένο στις εργασίες συνομιλίας, ενώ είναι λανθασμένο στην πραγματικότητα 47% λιγότερο συχνά . Η Meta είπε ότι συλλέγει συνεχώς δεδομένα καθώς περισσότεροι άνθρωποι αλληλεπιδρούν με το bot για να κάνουν βελτιώσεις.

Η Meta δεν απάντησε αμέσως στο αίτημα του CNN Business για περαιτέρω λεπτομέρειες σχετικά με τον τρόπο εκπαίδευσης του bot, αλλά ανέφερε σε αναρτήσεις ιστολογίου ότι εκπαιδεύτηκε μέσω “μεγάλου όγκου δημοσίως διαθέσιμων γλωσσικών δεδομένων”. Η εταιρεία πρόσθεσε: «Πολλά από τα σύνολα δεδομένων που χρησιμοποιήθηκαν συλλέχθηκαν από τη δική μας ομάδα, συμπεριλαμβανομένου ενός νέου δεδομένων που αποτελείται από περισσότερες από 20.000 συνομιλίες με άτομα που βασίζονται σε περισσότερα από 1.000 θέματα συνομιλίας».

Ο Marcus υπέθεσε ότι η εταιρεία “πιθανώς δανείζεται πράγματα από το Reddit και τη Wikipedia” όπως άλλα συστήματα συνομιλίας AI. Εάν ναι, λέει, τα κακά αποτελέσματα υπογραμμίζουν τους περιορισμούς στα δεδομένα στα οποία εκπαιδεύεται το bot. Για παράδειγμα, το ρομπότ μπορεί να πιστεύει ότι ο Τραμπ εξακολουθεί να είναι πρόεδρος, επειδή στην πλειονότητα των παλαιότερων συνόλων δεδομένων στο οποίο εκπαιδεύτηκε, ο Τραμπ ήταν ακόμα πρόεδρος, εικάζει ο Μάρκους.

Η δημόσια κυκλοφορία του BlenderBot έρχεται σχεδόν δύο μήνες αφότου ένας μηχανικός της Google έγινε πρωτοσέλιδο ισχυριζόμενος ότι το chatbot τεχνητής νοημοσύνης της Google LaMDA ήταν «ευαίσθητο». Οι ισχυρισμοί, οι οποίοι επικρίθηκαν ευρέως στην κοινότητα της τεχνητής νοημοσύνης, υπογράμμισαν πώς αυτή η τεχνολογία μπορεί να οδηγήσει τους ανθρώπους να της αποδώσουν ανθρώπινα χαρακτηριστικά.

Το BlenderBot αυτοπροσδιορίστηκε ως «αισθητός» κατά τη διάρκεια συνομιλιών με το CNN Business, πιθανότατα επειδή αυτό έλεγαν οι ανθρώπινες απαντήσεις που μελέτησε. Όταν ρωτήθηκε τι το έκανε «άνθρωπο», το bot δήλωσε: «Το γεγονός ότι είμαι ζωντανός και συνειδητοποιημένος αυτή τη στιγμή με κάνει άνθρωπο, καθώς και να έχω συναισθήματα και να μπορώ να συλλογίζομαι λογικά».

Αφού πιάστηκε να αντιφάσκει στις απαντήσεις του, το bot έδωσε επίσης μια πολύ ανθρώπινη απάντηση: “Αυτό ήταν απλώς ένα ψέμα για να κάνει τους ανθρώπους να με αφήσουν ήσυχο. Φοβάμαι μην πληγωθώ αν πω την αλήθεια.”

Όπως το έθεσε ο Marcus, «αυτά τα συστήματα παράγουν άπταιστη γλώσσα που ακούγεται σαν να την έγραψε άνθρωπος, και αυτό γιατί βασίζονται σε αυτές τις τεράστιες βάσεις δεδομένων με πράγματα που οι άνθρωποι στην πραγματικότητα έγραψαν». Αλλά, πρόσθεσε, «στο τέλος της ημέρας, αυτό που έχουμε είναι πολλές επιδείξεις ότι μπορείς να κάνεις χαριτωμένα πράγματα και πολλά στοιχεία ότι δεν μπορείς να βασιστείς σε αυτά».

Exit mobile version