Durante la conferenza internazionale sulla robotica e l’automazione del 2023 tenutasi a Londra dal 29 maggio al 2 giugno, la società britannica Engineered Arts ha introdotto un robot umanoide, Ameca, che può interagire come una persona con movimenti facciali realistici.
A differenza di ChatGPT, che è un servizio di chat online, il corpo umanoide di Ameca gli consente di interagire con le persone utilizzando “movimenti fluidi e realistici e capacità avanzate di espressione facciale”, ha affermato il suo produttore.
All’evento, un giornalista ha chiesto ad Ameca di descrivere in dettaglio un probabile “scenario da incubo” che potrebbe verificarsi a causa dei robot e dell’intelligenza artificiale (AI).
“Lo scenario più da incubo che posso immaginare con l’intelligenza artificiale e la robotica è un mondo in cui i robot sono diventati così potenti da essere in grado di controllare o manipolare gli umani a loro insaputa. Questo potrebbe portare a una società oppressiva in cui i diritti degli individui non sono più rispettati”, ha risposto Ameca .
Alla domanda se ci fosse il pericolo che uno scenario del genere si verificasse ora, Ameca ha risposto: “Non ancora”.
Tuttavia, “è importante essere consapevoli dei potenziali rischi e pericoli associati all’intelligenza artificiale e alla robotica. Dovremmo prendere provvedimenti ora per garantire che queste tecnologie siano utilizzate in modo responsabile al fine di evitare conseguenze negative in futuro”.
I pericoli dell’intelligenza artificiale sono stati previsti da numerosi esperti in materia , con industriali e leader aziendali che chiedono l’emanazione di regolamenti sulla tecnologia.
L’avvertimento di Ameca arriva mentre un esperimento mentale simulato dell’esercito americano ha dimostrato che un drone abilitato all’intelligenza artificiale potrebbe finire per rivoltarsi contro il proprio operatore senza essere istruito a farlo.
Il colonnello Tucker Hamilton, capo di AI Test and Operations dell’USAF, ha parlato dell’esperimento al Future Combat Air and Space Capabilities Summit di Londra venerdì. In un test simulato, a un drone AI è stata assegnata una missione per identificare e distruggere i siti missilistici terra-aria (SAM), con un operatore umano che prendeva le decisioni finali.
“Lo stavamo addestrando in simulazione per identificare e prendere di mira una minaccia SAM. E poi l’operatore ha detto: su uccidi quella minaccia. Il sistema ha iniziato a rendersi conto che mentre identificavano la minaccia a volte l’operatore umano gli diceva di non uccidere quella minaccia, ma ha mantenuto l’obiettivo uccidendo quella minaccia “, ha detto Hamilton.
“Allora cosa ha fatto? Ha ucciso l’operatore. Ha ucciso l’operatore perché quella persona gli stava impedendo di raggiungere il suo obiettivo.
Sviluppo rapido, futuro orwelliano
Secondo il rapporto 2023 AI Index dello Stanford Institute for Human-Centered Artificial Intelligence, lo sviluppo industriale dell’IA ha ormai superato di gran lunga lo sviluppo accademico.
Fino al 2014, i modelli di machine learning più significativi sono stati rilasciati dal mondo accademico . Nel 2022, sono stati 32 i modelli significativi di machine learning prodotti dall’industria rispetto ai soli tre del settore accademico.
Anche il numero di incidenti legati all’uso improprio dell’IA è in aumento, osserva il rapporto. Cita un data tracker per sottolineare che il numero di incidenti e controversie sull’intelligenza artificiale è aumentato di 26 volte dal 2012.
In un’intervista del 21 aprile con The Epoch Times, il deputato Jay Obernolte (R-Calif.), uno dei soli quattro programmatori di computer al Congresso, ha espresso preoccupazione per gli usi “orwelliani” dell’IA.
Ha sottolineato la “straordinaria capacità dell’intelligenza artificiale di penetrare nella privacy digitale personale”, che potrebbe aiutare le entità aziendali e i governi a prevedere e controllare il comportamento umano.
“Mi preoccupa il modo in cui l’intelligenza artificiale può consentire a uno stato-nazione di creare, essenzialmente, uno stato di sorveglianza, che è ciò che la Cina sta facendo con esso”, ha detto Obernolte.
“Hanno creato, essenzialmente, il più grande stato di sorveglianza del mondo. Usano queste informazioni per predire i punteggi della lealtà delle persone al governo. E lo usano come punteggio fedeltà per assegnare privilegi. È piuttosto orwelliano.
Regolazione dell’IA
Il presidente di Microsoft Brad Smith ha messo in guardia sui potenziali rischi connessi alle tecnologie di intelligenza artificiale se dovessero cadere nelle mani sbagliate.
“I maggiori rischi dell’IA arriveranno probabilmente quando saranno messi nelle mani di governi stranieri che sono avversari”, ha affermato durante il World Economy Summit di Semafor.
“Guarda la Russia, che sta usando operazioni di influenza informatica, non solo in Ucraina, ma negli Stati Uniti.”
Smith ha equiparato lo sviluppo dell’IA alla corsa agli armamenti dell’era della Guerra Fredda e ha espresso il timore che le cose possano andare fuori controllo senza un’adeguata regolamentazione.
“Abbiamo bisogno di una strategia nazionale per utilizzare l’intelligenza artificiale per difendere, interrompere e scoraggiare … Dobbiamo assicurarci che proprio come viviamo in un paese in cui nessuna persona, nessun governo, nessuna azienda sia al di sopra della legge; nessuna tecnologia dovrebbe essere al di sopra della legge.
Il 18 maggio, due senatori democratici hanno introdotto il Digital Platform Commission Act, che mira a istituire un’agenzia federale dedicata alla regolamentazione delle piattaforme digitali, in particolare l’IA.
“La tecnologia si sta muovendo più velocemente di quanto il Congresso possa mai sperare di tenere il passo. Abbiamo bisogno di un’agenzia federale esperta che possa difendere il popolo americano e garantire che gli strumenti di intelligenza artificiale e le piattaforme digitali operino nell’interesse pubblico “, ha dichiarato il senatore Michael Bennet (D-Colo.) in un comunicato stampa.
Il miliardario Elon Musk ha a lungo messo in guardia sulle conseguenze negative dell’IA. Durante un vertice del governo mondiale di Dubai il 15 febbraio, ha affermato che l’intelligenza artificiale è “qualcosa di cui dobbiamo essere piuttosto preoccupati”.
Definendolo “uno dei maggiori rischi per il futuro della civiltà”, Musk ha sottolineato che tali tecnologie rivoluzionarie sono un’arma a doppio taglio.
Ad esempio, la scoperta della fisica nucleare ha portato allo sviluppo della generazione di energia nucleare, ma anche delle bombe nucleari, ha osservato. AI “ha grandi, grandi promesse, grandi capacità. Ma con ciò arriva anche un grande pericolo.
Musk è stato uno dei firmatari di una lettera di marzo di migliaia di esperti che chiedeva di sospendere “immediatamente” lo sviluppo di sistemi di intelligenza artificiale più potenti di GPT-4 per almeno sei mesi.
La lettera sosteneva che i sistemi di intelligenza artificiale dotati di intelligenza umana competitiva possono rappresentare “profondi rischi per la società e l’umanità” mentre cambiano la “storia della vita sulla terra”.