L’allarme dei dipendenti OpenAI e Google DeepMind: il rischio di estinzione umana
Un gruppo di 13 esperti di intelligenza artificiale ha recentemente pubblicato una lettera aperta online che ha suscitato un intenso dibattito. Tra i firmatari figurano sette ex dipendenti di OpenAI, quattro attuali dipendenti di OpenAI, tuttavia rimasti anonimi, e due scienziati di Google DeepMind, di cui uno ancora in servizio. Questa lettera è un avvertimento alle aziende che sviluppano l’intelligenza artificiale riguardo ai potenziali rischi esistenziali che questa potrebbe rappresentare per l’umanità.
I firmatari della lettera criticano aspramente le grandi aziende tecnologiche per la loro mancanza di attenzione alla sicurezza e per la cultura della segretezza che permea il settore. Pur riconoscendo l’estrema utilità dell’IA, gli esperti mettono in evidenza il rischio che questa possa portare all’”estinzione umana” in un futuro non così lontano.
Eminentissime figure nel campo dell’IA, come William Saunders, Carroll Wainwright e Daniel Ziegler, tutti ex dipendenti di OpenAI, hanno espresso sostegno a questo messaggio. Anche Stuart Russell, uno dei principali esperti di sicurezza nell’intelligenza artificiale, insieme a Geoffrey Hinton e Yoshua Bengio, vincitori del premio Turing nel 2018, hanno appoggiato l’iniziativa.
Secondo gli autori della lettera, i rischi associati all’IA sono molteplici e includono il possibile rafforzamento delle disuguaglianze esistenti, la manipolazione e la disinformazione e la perdita di controllo sui sistemi autonomi di AI. In particolare, c’è un avvertimento che questa potenziale perdita di controllo potrebbe condurre all’estinzione dell’umanità. Molti governi e esperti del settore riconoscono questi pericoli e si sono impegnati a trovare soluzioni per mitigarli.
La maggiore preoccupazione espressa nella lettera riguarda la mancanza di trasparenza e di misure di sicurezza adeguate nel campo della ricerca e dello sviluppo dell’intelligenza artificiale. I firmatari chiedono un maggiore impegno e una regolamentazione più stretta per evitare scenari catastrofici e per garantire un uso responsabile dell’IA.
Come dichiarato nel documento, le aziende di AI detengono informazioni essenziali non pubbliche sulle capacità e sui limiti dei loro sistemi, sulla validità delle loro misure di protezione e sui rischi associati a vari tipi di danni. Tuttavia, al momento attuale, queste informazioni vengono condivise solo in misura limitata con i governi e non vengono affatto divulgate alla società civile. I firmatari della lettera sottolineano che le restrizioni sulla riservatezza impediscono loro di esprimere liberamente le loro preoccupazioni, tranne che alle stesse aziende che potrebbero non essere disposte ad affrontare adeguatamente tali questioni.
Le conseguenze di questa lettera sono ancora da vedere, ma è evidente che una regolamentazione più rigorosa è necessaria per prevenire problemi etici e pratici derivanti dall’utilizzo sempre più diffuso di queste nuove tecnologie.