Fonte: 123RF

‘Intelligenza artificiale evocherà il demone’: cosa può accadere

Diversi esperti di intelligenza artificiale stanno sollevando dubbi in merito al futuro.

Pubblicato:

Quando si parla di intelligenza artificiale si entra in un campo dalle molteplici sfaccettature, che  coinvolge diversi settori e apre a prospettive ancora tutte da scoprire. Da una parte, infatti, ci sono le enormi potenzialità che la tecnologia può offrire all’uomo, ma dall’altro lato restano grandi interrogativi sull’impiego di tali sistemi. E se a sollevare dubbi sono gli stessi che per primi hanno investito nella ricerca, convinti che lo sviluppo tecnologico sarebbe stato foriero solo di successi, qualche domanda è il caso di porsela.

AI ‘più pericolosa delle armi nucleari’

L’investitore in questione, come riportato dal sito britannico ‘Daily Star’, si chiama Arram Sabeti, CEO di un’azienda con sede a San Francisco che ha pubblicato su Twitter una serie di contenuti in cui sottolinea i rischi connessi con la tecnologia. Stando all’imprenditore, l’intelligenza artificiale sarebbe potenzialmente “più pericolosa delle armi nucleari” – citando Elon Musk – e proprio per questo l’uomo si dice spaventato in vista del futuro.

Gestione l’AI: stiamo evocando un demone

Nel lungo thread sul social, Sabeti dichiara di non essere l’unico del settore a nutrire paure in merito allo sviluppo delle tecnologie più sofisticate di intelligenza artificiale. “Quasi tutti sono preoccupati”, scrive l’uomo riferendo il sentimento che accomunerebbe decine di addetti ai lavori. E aggiunge che, continuando con la ricerca, la direzione si avvicina sempre più pericolosamente allo sviluppo di sistemi con prestazioni “vicine al livello umano”. Il risultato? “Stiamo evocando il demone”, scrive Sabeti.

C’è poco, dunque, da gioire di fronte ai traguardi che l’intelligenza artificiale sta raggiungendo affinando capacità di risolvere problemi via via più complessi. Parole, quelle del CEO, che seguono di pochi giorni quelle di Eliezer Yudkowsky, tra i teorici della stessa IA, che ha affermato come l’umanità intera corra il rischio di morire per colpa della versione “ostile sovrumana” di un software. Dove si trova il limite da non superare prima che sia troppo tardi?

più popolari su facebook nelle ultime 24 ore

vedi tutti