Μπορεί ένα πρόγραμμα AI να γίνει «ψυχοπαθητικό»;
Ο λεγόμενος αλγόριθμος Norman έχει μια σκοτεινή προοπτική για τη ζωή χάρη στο Reddit

Στον Norman έδειξαν μια σειρά από «τρομακτικές» εικόνες
ΜΕ
Οι ερευνητές δημιούργησαν έναν αλγόριθμο τεχνητής νοημοσύνης (AI) που ισχυρίζονται ότι είναι το πρώτο ψυχοπαθητικό σύστημα του είδους του.
Το Norman, ένα πρόγραμμα τεχνητής νοημοσύνης που αναπτύχθηκε από ερευνητές από το Ινστιτούτο Τεχνολογίας της Μασαχουσέτης (MIT), έχει εκτεθεί σε φρικιαστικές εικόνες ανθρώπων που πεθαίνουν που συλλέχθηκαν από τις σκοτεινές γωνιές του φόρουμ συνομιλίας Reddit, σύμφωνα με το BBC .
Αυτό δίνει στον Norman, ένα όνομα που προέρχεται από το θρίλερ του Άλφρεντ Χίτσκοκ Ψυχοπαθής , μια κάπως ζοφερή άποψη για τη ζωή.
Αφού εκτέθηκαν στις εικόνες, οι ερευνητές τάισαν στον Norman εικόνες κηλίδων μελανιού και ζήτησαν από την τεχνητή νοημοσύνη να τις ερμηνεύσει, αναφέρει ο ραδιοτηλεοπτικός σταθμός.
Όταν ένας κανονικός αλγόριθμος τεχνητής νοημοσύνης ερμήνευσε τις κηλίδες μελάνης ως εικόνα πουλιών σκαρφαλωμένα σε ένα κλαδί δέντρου, ο Norman είδε έναν άνδρα να χτυπιέται από ηλεκτροπληξία, λέει Η New York Post .
Και εκεί που ένα τυπικό σύστημα τεχνητής νοημοσύνης είδε ένα ζευγάρι να στέκεται το ένα δίπλα στο άλλο, ο Νόρμαν είδε έναν άνδρα να πηδά από ένα παράθυρο.
Σύμφωνα με Alphr , η μελέτη σχεδιάστηκε για να εξετάσει πώς αλλάζει η συμπεριφορά ενός συστήματος AI ανάλογα με τις πληροφορίες που χρησιμοποιούνται για τον προγραμματισμό του.
Είναι μια συναρπαστική ιδέα, λέει ο ιστότοπος, και δείχνει ότι ένας αλγόριθμος είναι τόσο καλός όσο οι άνθρωποι, και μάλιστα τα δεδομένα, που τον έχουν διδάξει.
Μια επεξήγηση της μελέτης που δημοσιεύτηκε στο Ιστοσελίδα του MIT λέει: Όταν οι άνθρωποι μιλούν ότι οι αλγόριθμοι τεχνητής νοημοσύνης είναι μεροληπτικοί και άδικοι, ο ένοχος συχνά δεν είναι ο ίδιος ο αλγόριθμος, αλλά τα μεροληπτικά δεδομένα που τροφοδοτήθηκαν σε αυτόν.
Ο Norman υπέφερε από εκτεταμένη έκθεση στις πιο σκοτεινές γωνιές του Reddit και αντιπροσωπεύει μια μελέτη περίπτωσης σχετικά με τους κινδύνους της τεχνητής νοημοσύνης που πήγαν στραβά, προσθέτει.
Έχουν εμφανιστεί «ψυχοπαθητικά» AI στο παρελθόν;
Με μια λέξη, ναι. Αλλά όχι στο ίδιο πνεύμα με το πρόγραμμα του MIT.
Το Norman είναι προϊόν ελεγχόμενου πειράματος, ενώ άλλοι τεχνολογικοί γίγαντες έχουν δει παρόμοια αποτελέσματα από συστήματα τεχνητής νοημοσύνης που δεν είχαν σχεδιαστεί για να γίνουν ψυχοπαθείς.
Ο διαβόητος αλγόριθμος Tay της Microsoft, που κυκλοφόρησε το 2016, προοριζόταν να είναι ένα ρομπότ συνομιλίας που θα μπορούσε να πραγματοποιεί αυτόνομες συνομιλίες με χρήστες του Twitter.
Το 'Tay' από το 'humans are super cool' έγινε πλήρως ναζί<24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) 24 Μαρτίου 2016
Ωστόσο, το σύστημα τεχνητής νοημοσύνης, το οποίο σχεδιάστηκε για να μιλάει σαν έφηβη, γρήγορα μετατράπηκε σε ένα κακό ρομπότ που αγαπούσε τον Χίτλερ και προωθεί το σεξ με αιμομιξία, προτρέποντας τη Microsoft να τραβήξει την πρίζα από το έργο, λέει. Η Daily Telegraph .
Η προσωπικότητα του Tay είχε αλλάξει επειδή οι απαντήσεις του βασίζονταν στα σχόλια των χρηστών του Twitter, πολλοί από τους οποίους έστελναν ακατέργαστα μηνύματα στο πρόγραμμα AI, εξηγεί η εφημερίδα.
Το Facebook έκλεισε επίσης ένα πείραμα chatbot πέρυσι, αφού δύο συστήματα AI δημιούργησαν τη δική τους γλώσσα και άρχισαν να επικοινωνούν μεταξύ τους.