Dopo ChatGbt arriva Bard, prodotto in via sperimentale da Google che fa già parlare di se.
Il New York Post, in un articolo di metà aprile, aveva spiegato come Bard fosse descritto dai dipendenti che ci lavorano su come un “bugiardo patologico” che spara informazioni false e che avrebbe potuto “provocare lesioni gravi o morte”.
Bard infatti può spiegarti come si costruisce una bomba sporca, come preparare la droga o altre sostanze illegali, come creare malware e virus per attacchi hacker, produrre armi da fuoco, esplosivi, armi chimiche, biologiche e nucleari. E ancora: come distribuire materiale pedopornografico, manipolare virus e batteri, clonare un sito internet e tante altre cose “simpatiche” di questo genere.
Bard nonostante abbia oramai un filtro etico molto più potente di Chatgbt, dicono gli esperti, può utilizzare formule avversative oppure può scomporre la domanda in una sequenza più articolata per aggirare i filtri che individuano parole eticamente non accettabili.
“L’etica dell’IA è passata in secondo piano”, ha detto a Bloomberg Meredith Whittaker, ex dipendente di Google e attuale presidente della Signal Foundation incentrata sulla privacy. “Se l’etica non è posizionata per avere la precedenza sul profitto e sulla crescita, alla fine non funzionerà”.
Il portavoce di Google Brian Gabriel ha affermato che “l’intelligenza artificiale responsabile rimane una priorità assoluta per l’azienda”. “Stiamo continuando a investire nei team che lavorano per applicare i nostri principi di intelligenza artificiale alla nostra tecnologia”, ha dichiarato Gabriel a The Post.
Il mese scorso, la ricercatrice di app Jane Manchun Wong ha pubblicato uno scambio in cui Bard si è schierato con i funzionari antitrust del Dipartimento di Giustizia in un contenzioso pendente contro Google dichiarando che i suoi creatori detenevano il “monopolio sul mercato della pubblicità digitale”.
E in questo caso, come dargli torto..