Se clicchi sul link ed completi l'acquisto potremmo ricevere una commissione. Leggi la nostra policy editoriale.

'Intelligenze artificiali e macchine super intelligenti saranno impossibili da contenere'

Per un nuovo studio a un certo punto le IA rischiano di essere semplicemente troppo per l'uomo.

Quello delle intelligenze artificiali (IA) e delle macchine super intelligenti che potrebbero alimentare è un settore molto interessante e da ormai diverso tempo teatro di parecchi dibattiti. Al di là della facile battuta su Skynet, i possibili pericoli del progresso in questo campo suscitano tanto interesse quanto timori.

Consigliandovi di dare un'occhiata al nostro articolo "Sono una Intelligenza Artificiale e sono qui per dimostrarvi che le IA non distruggeranno l'umanità", vi parliamo di uno studio condotto dai ricercatori del Berlin's Institute for Human Development, uno studio che come spiegato dal co-autore Manuel Cebrian ha cercato di capire un aspetto molto interessante del nostro possibile rapporto con IA e macchine super intelligenti.

La domanda è apparentemente semplice quanto la risposta complessa: l'umanità sarebbe in grado di contenere una ipotetica IA super intelligente? Risposta breve: no.

"Abbiamo concluso che il contenimento totale sia in linea di principio impossibile a causa dei limiti intrinsechi dell'informatica stessa. Supponendo che una super intelligenza contenga un programma che include tutti i programmi che possono essere eseguiti da una universale macchina di Turing potenzialmente complessi come il mondo stesso, il contenimento più stretto richiederebbe delle simulazioni di questo programma, qualcosa teoricamente e praticamente impossibile".

Se il puro contenimento sembra impossibile, i ricercatori si sono focalizzati sulla possibilità di costruire un algoritmo teorico di contenimento che si assicuri che una IA super intelligente non possa fare del male agli esseri umani. Qualcosa di non troppo diverso dalle famose tre leggi della robotica di Asimov. Anche in questo caso l'attuale paradigma alla base dell'informatica di oggi sarebbe un ostacolo e un algoritmo del genere non sarebbe realizzabile.

"Se si limita il problema alle regole base dell'informatica teorica si realizza che un algoritmo che comandi a una IA di non distruggere il mondo potrebbe inavvertitamente fermare le sue operazioni. Se dovesse succedere non sapremmo se l'algoritmo di contenimento stia ancora analizzando la minaccia o si sia fermato per contenere l'IA malevola. In effetti questo rende l'algoritmo di contenimento inutilizzabile".

Nessun algoritmo può determinare se una IA farebbe qualcosa di "cattivo" o meno, non saremmo nemmeno in grado di sapere quando una IA stia pensando di fare qualcosa di cattivo e secondo la ricerca non saremmo nemmeno in grado di sapere quando avremo a che fare con una IA super intelligente dato che comprenderlo si trova nello stesso reame del problema del contenimento.

Tutto ciò che riguarda le IA continua a sembrare in egual misura affascinante, imperscrutabile e terrificante.

Fonte: ZME Science

Taggato come

A proposito dell'autore

Avatar di Alessandro Baravalle

Alessandro Baravalle

Contributor

Si avvicina al mondo dei videogiochi grazie ad un porcospino blu incredibilmente veloce e a un certo "Signor Bison". Crede che il Sega Saturn sia la miglior console mai creata e che un giorno il mondo gli darà ragione.

Commenti

More News

Ultimi Articoli