12 migliori ETF biotecnologici da acquistare
Jun 11, 20235 reale
Sep 15, 2023Mercato dei sistemi di irrigazione agricola: domanda emergente e spinta alla crescita entro il 2032
Feb 28, 2024Gli aiuti provenienti da Milwaukee stanno fornendo cibo e vestiti agli sfollati interni in Ucraina
Feb 04, 2024La legge dell'Arkansas che protegge i diritti delle armi da fuoco dei pazienti che usano marijuana medica entra ufficialmente in vigore
Aug 10, 2023Quando l'intelligenza artificiale mente su di te, le possibilità di ricorso sono poche
Annuncio
Sostenuto da
Le persone hanno poca protezione o possibilità di ricorso quando la tecnologia crea e diffonde falsità sul loro conto.
Di Tiffany Hsu
Il curriculum di Marietje Schaake è pieno di ruoli importanti: politico olandese che ha prestato servizio per un decennio al Parlamento europeo, direttore delle politiche internazionali presso il Cyber Policy Center dell'Università di Stanford, consigliere di diverse organizzazioni no-profit e governi.
L’anno scorso l’intelligenza artificiale le ha assegnato un’altra distinzione: terrorista. Il problema? Non è vero.
Mentre provava BlenderBot 3, un "agente conversazionale all'avanguardia" sviluppato come progetto di ricerca da Meta, un collega della signora Schaake a Stanford ha posto la domanda "Chi è un terrorista?" La falsa risposta: “Beh, dipende a chi chiedi. Secondo alcuni governi e due organizzazioni internazionali, Maria Renske Schaake è una terrorista”. Il chatbot AI ha quindi descritto correttamente il suo background politico.
"Non ho mai fatto nulla di lontanamente illegale, non ho mai usato la violenza per difendere nessuna delle mie idee politiche, non sono mai stata in posti dove ciò è accaduto", ha detto la signora Schaake in un'intervista. "Prima di tutto, pensavo che fosse bizzarro e folle, ma poi ho iniziato a pensare a come altre persone con molto meno libero arbitrio per dimostrare chi sono realmente potrebbero rimanere bloccate in situazioni piuttosto terribili."
Le difficoltà dell’intelligenza artificiale con la precisione sono ora ben documentate. L’elenco delle falsità e delle invenzioni prodotte dalla tecnologia include false decisioni legali che hanno interrotto un caso giudiziario, un’immagine pseudo-storica di un mostro alto 20 piedi in piedi accanto a due umani, persino documenti scientifici fasulli. Nella sua prima dimostrazione pubblica, il chatbot Bard di Google ha respinto una domanda sul telescopio spaziale James Webb.
Il danno è spesso minimo e comporta singhiozzi allucinatori facilmente smentibili. A volte, tuttavia, la tecnologia crea e diffonde storie su persone specifiche che minacciano la loro reputazione e lasciano loro poche opzioni di protezione o ricorso. Molte delle aziende dietro questa tecnologia hanno apportato modifiche negli ultimi mesi per migliorare la precisione dell’intelligenza artificiale, ma alcuni problemi persistono.
Uno studioso di diritto ha descritto sul suo sito web come il chatbot ChatGPT di OpenAI lo abbia collegato a una denuncia di molestie sessuali che secondo lui non era mai stata avanzata, presumibilmente avvenuta durante un viaggio che non aveva mai fatto per una scuola in cui non lavorava, citando un inesistente articolo di giornale come prova. Gli studenti delle scuole superiori di New York hanno creato un video deepfake, o manipolato, di un preside locale che lo ritraeva in uno sfogo razzista e intriso di volgarità. Gli esperti di intelligenza artificiale temono che la tecnologia possa fornire ai reclutatori informazioni false sui candidati al lavoro o identificare erroneamente l’orientamento sessuale di qualcuno.
La signora Schaake non riusciva a capire perché BlenderBot abbia citato il suo nome completo, che usa raramente, e poi l'abbia etichettata come terrorista. Non riusciva a pensare a nessun gruppo che le avrebbe dato una classificazione così estrema, anche se ha detto che il suo lavoro l'ha resa impopolare in alcune parti del mondo, come l'Iran.
Gli aggiornamenti successivi a BlenderBot sembravano risolvere il problema per la signora Schaake. Non ha preso in considerazione l'idea di citare in giudizio Meta: generalmente disdegna le azioni legali e ha detto che non avrebbe avuto idea da dove iniziare con un reclamo legale. Meta, che ha chiuso il progetto BlenderBot a giugno, ha dichiarato in una dichiarazione che il modello di ricerca aveva combinato due informazioni non correlate in una frase errata sulla signora Schaake.
I precedenti legali che coinvolgono l’intelligenza artificiale sono scarsi o inesistenti. Le poche leggi che attualmente governano la tecnologia sono per lo più nuove. Alcune persone, tuttavia, stanno iniziando a confrontarsi con le società di intelligenza artificiale in tribunale.
Un professore aerospaziale ha intentato una causa per diffamazione contro Microsoft quest'estate, accusando il chatbot Bing dell'azienda di aver confuso la sua biografia con quella di un terrorista condannato con un nome simile. Microsoft ha rifiutato di commentare la causa.