AD
OpenAI sta formando una squadra dedicata alla gestione dei rischi legati al possibile sviluppo di un’intelligenza artificiale in grado di superare la soglia di accettabilità, diventando “superintelligente”. Si tratta di qualcosa su cui la fantascienza ha a lungo ricamato (Terminator lo avete visto?).
Elucubrazioni a parte, una superintelligenza potrebbe essere definita come un modello ipotetico di IA che supera in capacità persino il più dotato e intelligente essere umano, eccellendo in diverse aree di competenza. OpenAI ritiene che un tale modello potrebbe arrivare entro la fine del decennio, come affermato nella pubblicazione ufficiale, che potete leggere integralmente in FONTE. Ecco un estratto.
“La superintelligenza sarà la tecnologia più impattante mai inventata dall’umanità e potrebbe aiutarci a risolvere molti dei problemi più importanti presenti nel mondo. Ma l’enorme potere di una superintelligenza potrebbe anche essere molto pericoloso e portare alla sottomissione dell’umanità o addirittura alla sua estinzione “.
La nuova squadra sarà co-guidata dai due ricercatori di OpenAI, Ilya Sutskever, e Jan Leike. Inoltre, OpenAI ha dichiarato che dedicherà il 20% delle sue risorse di calcolo attualmente disponibili all’iniziativa, con l’obiettivo di sviluppare un ricercatore automatico sull’allineamento ai valori umani e sulla correttezza che una simile tecnologia dovrebbe avere. Un sistema del genere dovrebbe teoricamente aiutare OpenAI ad arrivare al risultato per tempo.
.
Commenti post (0)