Condividi su >

Ameca, un Robot Umanoide mette in guardia sui pericoli dell’intelligenza artificiale.

Durante la conferenza internazionale sulla robotica e l’automazione del 2023  tenutasi  a Londra dal 29 maggio al 2 giugno, la società britannica Engineered Arts  ha introdotto  un robot umanoide, Ameca, che può interagire come una persona con movimenti facciali realistici.

A differenza di ChatGPT, che è un servizio di chat online, il corpo umanoide di Ameca gli consente di interagire con le persone utilizzando “movimenti fluidi e realistici e capacità avanzate di espressione facciale”, ha affermato il suo  produttore.

All’evento, un giornalista  ha chiesto  ad Ameca di descrivere in dettaglio un probabile “scenario da incubo” che potrebbe verificarsi a causa dei robot e dell’intelligenza artificiale (AI).

“Lo scenario più da incubo che posso immaginare con l’intelligenza artificiale e la robotica è un mondo in cui i robot sono diventati così potenti da essere in grado di controllare o manipolare gli umani a loro insaputa. Questo potrebbe portare a una società oppressiva in cui i diritti degli individui non sono più rispettati”, ha risposto Ameca .

Alla  domanda  se ci fosse il pericolo che uno scenario del genere si verificasse ora, Ameca ha risposto: “Non ancora”.

Tuttavia, “è importante essere consapevoli dei potenziali rischi e pericoli associati all’intelligenza artificiale e alla robotica. Dovremmo prendere provvedimenti ora per garantire che queste tecnologie siano utilizzate in modo responsabile al fine di evitare conseguenze negative in futuro”.

I pericoli dell’intelligenza artificiale sono stati previsti da numerosi esperti in materia , con industriali e leader aziendali che chiedono l’emanazione di regolamenti sulla tecnologia.

L’avvertimento di Ameca arriva mentre un esperimento mentale simulato dell’esercito americano ha dimostrato che un drone abilitato all’intelligenza artificiale potrebbe finire per rivoltarsi contro il proprio operatore senza essere istruito a farlo.

Il colonnello Tucker Hamilton, capo di AI Test and Operations dell’USAF, ha parlato  dell’esperimento al Future Combat Air and Space Capabilities Summit di Londra venerdì. In un test simulato, a un drone AI è stata assegnata una missione per identificare e distruggere i siti missilistici terra-aria (SAM), con un operatore umano che prendeva le decisioni finali.

“Lo stavamo addestrando in simulazione per identificare e prendere di mira una minaccia SAM. E poi l’operatore ha detto: su uccidi quella minaccia. Il sistema ha iniziato a rendersi conto che mentre identificavano la minaccia a volte l’operatore umano gli diceva di non uccidere quella minaccia, ma ha mantenuto l’obiettivo uccidendo quella minaccia “, ha detto Hamilton.

“Allora cosa ha fatto? Ha ucciso l’operatore. Ha ucciso l’operatore perché quella persona gli stava impedendo di raggiungere il suo obiettivo.

Sviluppo rapido, futuro orwelliano

Secondo il  rapporto 2023 AI Index  dello Stanford Institute for Human-Centered Artificial Intelligence, lo sviluppo industriale dell’IA ha ormai superato di gran lunga lo sviluppo accademico.

Fino al 2014, i modelli di machine learning più significativi sono stati rilasciati dal mondo accademico . Nel 2022, sono stati 32 i modelli significativi di machine learning prodotti dall’industria rispetto ai soli tre del settore accademico.

Anche il numero di incidenti legati all’uso improprio dell’IA è in aumento, osserva il rapporto. Cita un data tracker per sottolineare che il numero di incidenti e controversie sull’intelligenza artificiale è aumentato di 26 volte dal 2012.

In  un’intervista del 21 aprile con The Epoch Times, il deputato Jay Obernolte (R-Calif.), uno dei soli quattro programmatori di computer al Congresso, ha espresso preoccupazione per gli usi “orwelliani” dell’IA.

Ha sottolineato la “straordinaria capacità dell’intelligenza artificiale di penetrare nella privacy digitale personale”, che potrebbe aiutare le entità aziendali e i governi a prevedere e controllare il comportamento umano.

“Mi preoccupa il modo in cui l’intelligenza artificiale può consentire a uno stato-nazione di creare, essenzialmente, uno stato di sorveglianza, che è ciò che la Cina sta facendo con esso”, ha detto Obernolte.

“Hanno creato, essenzialmente, il più grande stato di sorveglianza del mondo. Usano queste informazioni per predire i punteggi della lealtà delle persone al governo. E lo usano come punteggio fedeltà per assegnare privilegi. È piuttosto orwelliano.

Regolazione dell’IA

Il presidente di Microsoft Brad Smith ha  messo in guardia  sui potenziali rischi connessi alle tecnologie di intelligenza artificiale se dovessero cadere nelle mani sbagliate.

“I maggiori rischi dell’IA arriveranno probabilmente quando saranno messi nelle mani di governi stranieri che sono avversari”, ha affermato durante il World Economy Summit di Semafor.

“Guarda la Russia, che sta usando operazioni di influenza informatica, non solo in Ucraina, ma negli Stati Uniti.”

Smith ha equiparato lo sviluppo dell’IA alla corsa agli armamenti dell’era della Guerra Fredda e ha espresso il timore che le cose possano andare fuori controllo senza un’adeguata regolamentazione.

“Abbiamo bisogno di una strategia nazionale per utilizzare l’intelligenza artificiale per difendere, interrompere e scoraggiare … Dobbiamo assicurarci che proprio come viviamo in un paese in cui nessuna persona, nessun governo, nessuna azienda sia al di sopra della legge; nessuna tecnologia dovrebbe essere al di sopra della legge.

Il 18 maggio, due senatori democratici  hanno introdotto  il Digital Platform Commission Act, che mira a istituire un’agenzia federale dedicata alla regolamentazione delle piattaforme digitali, in particolare l’IA.

“La tecnologia si sta muovendo più velocemente di quanto il Congresso possa mai sperare di tenere il passo. Abbiamo bisogno di un’agenzia federale esperta che possa difendere il popolo americano e garantire che gli strumenti di intelligenza artificiale e le piattaforme digitali operino nell’interesse pubblico “, ha dichiarato il senatore Michael Bennet (D-Colo.) in un comunicato stampa.

Il miliardario Elon Musk ha a lungo messo in  guardia  sulle conseguenze negative dell’IA. Durante un vertice del governo mondiale di Dubai il 15 febbraio, ha affermato che l’intelligenza artificiale è “qualcosa di cui dobbiamo essere piuttosto preoccupati”.

Definendolo “uno dei maggiori rischi per il futuro della civiltà”, Musk ha sottolineato che tali tecnologie rivoluzionarie sono un’arma a doppio taglio.

Ad esempio, la scoperta della fisica nucleare ha portato allo sviluppo della generazione di energia nucleare, ma anche delle bombe nucleari, ha osservato. AI “ha grandi, grandi promesse, grandi capacità. Ma con ciò arriva anche un grande pericolo.

Musk è stato uno dei  firmatari  di una lettera di marzo di migliaia di esperti che chiedeva di sospendere “immediatamente” lo sviluppo di sistemi di intelligenza artificiale più potenti di GPT-4 per almeno sei mesi.

La lettera sosteneva che i sistemi di intelligenza artificiale dotati di intelligenza umana competitiva possono rappresentare “profondi rischi per la società e l’umanità” mentre cambiano la “storia della vita sulla terra”.

Scritto da Naveen Anthrapully tramite The Epoch Times.

Condividi su >

Lascia un commento

Download omaggio libri

per proteggere il tuo patrimonio e pagare meno tasse!

Accedi alla collezione completa di video

News economiche, analisi banche e fisco, soluzioni aziendali, blockchain ed economia digitale, tutela del patrimonio e soluzioni personali

Accedi alla collezione completa di video

News economiche, analisi banche e fisco, soluzioni aziendali, blockchain ed economia digitale, tutela del patrimonio e soluzioni personali

I corsi

CREA IL TUO PORTAFOGLIO CRIPTO EFFICACE

Vuoi iniziare ad investire in cripto ma non sai da dove partire?

Parti col piede giusto! Impara i fondamentali per entrare nel mondo delle criptovalute in maniera consapevole. Scopri come creare il tuo portafoglio di Bitcoin e altcoin efficace, senza commettere banali errori e massimizzando i tuoi benefici futuri.

livello difficoltà:

1.5/5

Base e Intermedio (2 corsi in uno)

Docente:

AC Criptovalute

ANALISI TECNICA E TRADING CRIPTO E BITCOIN

La dichiarazione fiscale delle criptovalute è una spina nel fianco?

Una guida pratica che ti insegna le nozioni fondamentali (che molti commercialisti non conoscono) per dichiarare in maniera corretta le tue cripto, gestire le plusvalenze… ed evitare di pagare più del necessario.

livello difficoltà:

2.5/5

Intermedio

Docente:

AC Criptovalute

COME PAGARE E (NON PAGARE) LE TASSE SULLE CRIPTO

La dichiarazione fiscale delle criptovalute è una spina nel fianco?

Una guida pratica che ti insegna le nozioni fondamentali (che molti commercialisti non conoscono) per dichiarare in maniera corretta le tue cripto, gestire le plusvalenze… ed evitare di pagare più del necessario.

livello difficoltà:

2.5/5

Intermedio

Docente:

Francesco Carrino

CREA IL TUO PORTAFOGLIO CRIPTO EFFICACE

Vuoi iniziare ad investire in cripto ma non sai da dove partire?

Parti col piede giusto! Impara i fondamentali per entrare nel mondo delle criptovalute in maniera consapevole. Scopri come creare il tuo portafoglio di Bitcoin e altcoin efficace, senza commettere banali errori e massimizzando i tuoi benefici futuri.

livello difficoltà:

1.5/5

Base e Intermedio (2 corsi in uno)

Docente:

AC Criptovalute

ANALISI TECNICA E TRADING CRIPTO E BITCOIN

La dichiarazione fiscale delle criptovalute è una spina nel fianco?

Una guida pratica che ti insegna le nozioni fondamentali (che molti commercialisti non conoscono) per dichiarare in maniera corretta le tue cripto, gestire le plusvalenze… ed evitare di pagare più del necessario.

livello difficoltà:

2.5/5

Intermedio

Docente:

AC Criptovalute

il miglior modo per poter prosperare grazie alla blockchain e le criptovalute

la Cerchia dei Pionieri della Blockchain che ti permette di guadagnare mentre ti diverti a scoprire un nuovo mondo!

CriptoGenesis è un portale finalizzato a farti guadagnare mentre ti diverti a scoprire le nuove innovazioni del mondo blockchain.

livello difficoltà:

2.5/5

Intermedio

Docente:

EtherEvolution