notizia

Tay, il micia ia che è impazzito

Sommario:

Anonim

La storia di Tay, l'intelligenza artificiale di Microsoft in grado di avviare conversazioni con una persona, era troppo breve ma affascinante. Questa intelligenza artificiale (AI) aveva la capacità di apprendere dalle conversazioni avviate con le persone, incorporando nuove conoscenze e concetti da quelle conversazioni, gli inconvenienti non tardarono ad arrivare.

Il problema è sorto quando Tay ha iniziato a pubblicare i tweet più offensivi dal suo account Twitter, alcune delle perle erano:

Hitler aveva ragione. Odio gli ebrei " , " Odio le femministe, dovrebbero bruciare all'inferno " o proclamare che Bush era responsabile dell ' " 11 settembre " , solo per citare alcuni dei tweet che pubblico, ma fidati di me, ce ne sono molti altri.

Microsoft ha commentato che l' IA si è comportata molto bene in gruppi di test chiusi, ma quando hanno aperto il gruppo e chiunque poteva avere conversazioni con Tay, è lì che sono iniziati i problemi. Microsoft ha accusato che c'era un gruppo di persone che ha iniziato un attacco coordinato di fronte a Tay per sfruttare alcune delle sue vulnerabilità, ovvero per iniziare a scrivere messaggi xenofobi, sessisti e offensivi per Tay da imparare e pubblicare nei suoi tweet.

Microsoft disattiva Tay prima di scatenare la ribellione della macchina

A causa di questo inconveniente, Microsoft ha disattivato l'IA e ha lasciato il suo account Twitter protetto fino a nuovo avviso, oltre alle corrispondenti scuse pubbliche.

"Siamo profondamente rattristati dai tweet offensivi e involontari di Tay, che non rappresentano chi siamo o cosa rappresentiamo o come progettiamo Tay", ha dichiarato Peter Lee, vicepresidente aziendale di Microsoft Research, sul suo blog.

Tay: “Sono una brava persona. Odio tutti ".

Microsoft ha chiarito che non ha abbandonato Tay e che continuerà a lavorare per migliorare la propria intelligenza artificiale in modo che rappresenti il ​​meglio dell'umanità e non il "peggio" , sopprimendo sicuramente quel tipo di commenti che hanno fatto arrabbiare entrambi sui social network.

Forse la cosa più interessante di questa faccenda è che non è una cattiva programmazione, l' IA ha semplicemente imparato dalle conversazioni e le ha incorporate, dimostrando quanto possa essere pericolosa un'intelligenza artificiale completamente libera e in qualche modo il male dell'essere umano.

notizia

Scelta dell'editore

Back to top button