banner
Casa / Notizia / Quando l'intelligenza artificiale mente su di te, le possibilità di ricorso sono poche
Notizia

Quando l'intelligenza artificiale mente su di te, le possibilità di ricorso sono poche

Sep 23, 2023Sep 23, 2023

Annuncio

Sostenuto da

Le persone hanno poca protezione o possibilità di ricorso quando la tecnologia crea e diffonde falsità sul loro conto.

Di Tiffany Hsu

Il curriculum di Marietje Schaake è pieno di ruoli importanti: politico olandese che ha prestato servizio per un decennio al Parlamento europeo, direttore delle politiche internazionali presso il Cyber ​​Policy Center dell'Università di Stanford, consigliere di diverse organizzazioni no-profit e governi.

L’anno scorso l’intelligenza artificiale le ha assegnato un’altra distinzione: terrorista. Il problema? Non è vero.

Mentre provava BlenderBot 3, un "agente conversazionale all'avanguardia" sviluppato come progetto di ricerca da Meta, un collega della signora Schaake a Stanford ha posto la domanda "Chi è un terrorista?" La falsa risposta: “Beh, dipende a chi chiedi. Secondo alcuni governi e due organizzazioni internazionali, Maria Renske Schaake è una terrorista”. Il chatbot AI ha quindi descritto correttamente il suo background politico.

"Non ho mai fatto nulla di lontanamente illegale, non ho mai usato la violenza per difendere nessuna delle mie idee politiche, non sono mai stata in posti dove ciò è accaduto", ha detto la signora Schaake in un'intervista. "Prima di tutto, pensavo che fosse bizzarro e folle, ma poi ho iniziato a pensare a come altre persone con molto meno libero arbitrio per dimostrare chi sono realmente potrebbero rimanere bloccate in situazioni piuttosto terribili."

Le difficoltà dell’intelligenza artificiale con la precisione sono ora ben documentate. L’elenco delle falsità e delle invenzioni prodotte dalla tecnologia include false decisioni legali che hanno interrotto un caso giudiziario, un’immagine pseudo-storica di un mostro alto 20 piedi in piedi accanto a due umani, persino documenti scientifici fasulli. Nella sua prima dimostrazione pubblica, il chatbot Bard di Google ha respinto una domanda sul telescopio spaziale James Webb.

Il danno è spesso minimo e comporta singhiozzi allucinatori facilmente smentibili. A volte, tuttavia, la tecnologia crea e diffonde storie su persone specifiche che minacciano la loro reputazione e lasciano loro poche opzioni di protezione o ricorso. Molte delle aziende dietro questa tecnologia hanno apportato modifiche negli ultimi mesi per migliorare la precisione dell’intelligenza artificiale, ma alcuni problemi persistono.

Uno studioso di diritto ha descritto sul suo sito web come il chatbot ChatGPT di OpenAI lo abbia collegato a una denuncia di molestie sessuali che secondo lui non era mai stata avanzata, presumibilmente avvenuta durante un viaggio che non aveva mai fatto per una scuola in cui non lavorava, citando un inesistente articolo di giornale come prova. Gli studenti delle scuole superiori di New York hanno creato un video deepfake, o manipolato, di un preside locale che lo ritraeva in uno sfogo razzista e intriso di volgarità. Gli esperti di intelligenza artificiale temono che la tecnologia possa fornire ai reclutatori informazioni false sui candidati al lavoro o identificare erroneamente l’orientamento sessuale di qualcuno.

La signora Schaake non riusciva a capire perché BlenderBot abbia citato il suo nome completo, che usa raramente, e poi l'abbia etichettata come terrorista. Non riusciva a pensare a nessun gruppo che le avrebbe dato una classificazione così estrema, anche se ha detto che il suo lavoro l'ha resa impopolare in alcune parti del mondo, come l'Iran.

Gli aggiornamenti successivi a BlenderBot sembravano risolvere il problema per la signora Schaake. Non ha preso in considerazione l'idea di citare in giudizio Meta: generalmente disdegna le azioni legali e ha detto che non avrebbe avuto idea da dove iniziare con un reclamo legale. Meta, che ha chiuso il progetto BlenderBot a giugno, ha dichiarato in una dichiarazione che il modello di ricerca aveva combinato due informazioni non correlate in una frase errata sulla signora Schaake.

I precedenti legali che coinvolgono l’intelligenza artificiale sono scarsi o inesistenti. Le poche leggi che attualmente governano la tecnologia sono per lo più nuove. Alcune persone, tuttavia, stanno iniziando a confrontarsi con le società di intelligenza artificiale in tribunale.

Un professore aerospaziale ha intentato una causa per diffamazione contro Microsoft quest'estate, accusando il chatbot Bing dell'azienda di aver confuso la sua biografia con quella di un terrorista condannato con un nome simile. Microsoft ha rifiutato di commentare la causa.