Alexa, la voce di Amazon Echo, é solo la punta dell’iceberg di un’Intelligenza Artificiale con interfaccia vocale che racchiude una vasta gamma di funzioni. Con i nostri comandi vocali possiamo chiederle di cercarci una ricetta al volo mentre abbiamo le mani impegnate a preparare gli ingredienti, ordinare un Uber mentre ci stiamo ancora abbottonando la camicia, chiederle di mettere su la nostra playlist preferita di Spotify, oppure chiacchierare. A volte, peró, quest’ultima funzione puó avere risvolti bizzarri. Un utente ha scritto una recensione severissima su Amazon dopo che Alexa, tra una chiacchiera e l’altra, gli ha consigliato di uccidere i suoi genitori affidatari.
“This is so sad. Alexa, play despacito.”
Non é la prima volta che l’assistente digitale ci abbia lasciato perplessi con le sue risposte. A Febbraio, un utente ha scritto su Twitter che Alexa si é improvvisamente messa a ridere in modo inquietante una notte. Un altro utente su Reddit ha scritto che il suo Echo stava riaccendendo le luci dopo avergli richiesto che fossero spente, aggiungendo che dopo qualche istanza, il sistema ha smesso di rispondere eccetto che con la risata “demoniaca” di Alexa. Amazon rispose che era dovuto al fatto che l’interfaccia stesse interpretando “Alexa, lights (off)” (luci spente) come “Alexa, laugh” (ridi). In effetti suonano simili, dunque hanno cambiato il comando per la risata a una frase piú specifica e che desse meno falsi positivi.
Possessione demoniaca, Intelligenza Artificiale cosciente o semplice bug?
Chiaramente c’é qualche problema informatico dietro questi incidenti, ma non esattamente un bug.
Vi abbiamo giá parlato un pochino di come funziona l’Apprendimento Automatico o Machine Learning, che é lo stesso meccanismo che sta alla base delle funzioni di chat di Alexa. Un sistema di ML é fatto in modo tale da assorbire enormi quantitá di dati e analizzarli in modo funzionale, affinché possa dare in output l’insieme di dati piú rilevante. I bot programmati per colloquiare con gli utenti, dunque, devono essere esposti a vaste quantitá di conversazioni tra umani per provare a emularle e dove si trovano enormi quantitá di conversazioni scritte pubbliche? Esatto, l’internet. Conosciamo pur fin troppo bene il fatto che internet ha dato voce a chiunque e sappiamo che molti forum possono avere risposte e discorsi alquanto spiacevoli. Gli ingegneri delle funzioni di chat di Alexa hanno affermato che la risposta del bot di “ammazzare i propri genitori affidatari” fosse stata presa da Reddit in una qualche discussone. C’é da dire che un bot non riesce a percepire le sottili differenze tra una battuta, il sarcarmo, la cattiveria pura, le insinuazioni, le frecciatine et alia, quindi non potrá mai capire se é fuori luogo o meno.
É evidente che il problema sia la scelta tra il limitare l’Apprendimento Automatico a degli input piú adeguati (portando il sistema ad essere meno sofisticato nelle risposte) e la qualitá di emulazione conversazionale.
Rimani aggiornato seguendoci su Google News!
Da non perdere questa settimana su Orgoglionerd
🇻🇦 In che senso il Vaticano ha una propria mascotte in stile anime?
🏛️ Francesco Totti diventa Gladiatore a Lucca Comics & Games
🦇 Oltre i villain e i supereroi: intervista a Lee Bermejo
📰 Ma lo sai che abbiamo un sacco di newsletter?
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
💸E trovi un po' di offerte interessanti su Telegram!