Tuesday, 11 Dec 2018

Elon Musk ci mette in guardia dallo sviluppo incontrollato dell’Intelligenza Artificiale

Dopo le parole di Stephen Hawking e la lettera firmata da alcuni dei migliori scienziati del mondo nel campo dell’intelligenza artificiale, pubblicata su The Future of Life Institute in cui si raccomanda prudenza nello sviluppo dell’intelligenza artificiale e di mantenerne assolutamente il controllo, Elon Musk, già cofirmatario della lettere di cui sopra, torna a raccomandare cautela sugli sviluppi dell’AI.

Il Leader di SpaceX e Tesla, parlando alla riunione estiva dell’Associazione Nazionale dei governi degli Stati Uniti a Providence Rhode Island, ha dichiarato di avere un’automobile dotata degli attuali sistemi di Intelligenza Artificiale per la guida automatica e di ritenere che dovremmo preoccuparci seriamente per ciò che ci aspetta. La visione di Musk è addirittura catastrofica, queste le sue parole: “Continuo a suonare l’allarme ma finché le persone non vedranno i robots che scendere lungo la strada uccidendo le persone, non reagiranno, perché tutto sembra lontano e senza consistenza”.

Ovviamente Elon Musk non si riferisce agli strumenti di AI attualmente disponibili quali possono essere Alexa o Siri ma parla di quello che potrebbe diventare in futuro l’Intelligenza Artificiale, un’entita super intelligente che controlla e gestisce tutto il nostro mondo.

Per alcuni ricercatori questo dovrebbe essere il passo logico successivo quando passeremo dagli attuali e primitivi sistemi di AI ad un’intelligenza più evoluta e indipendente. Il grande fisico Stephen Hawking già da diverso tempo va avvertendo che l’Ai potrebbe rivelarsi la fine dell’umanità.

Il discorso di Musk

Come osserva Musk, è certamente difficile prendere in considerazione queste minacce ora. L’idea di un futuro simile ad I, Robot in cui uno Skynet che si ribella e tenta di distruggere l’umanità come in Terminator o, più semplicemente, in cui le automobili intelligenti si ribellano e cominciano a compiere stragi come nel “ponte di quattro giorni” di G. H. Smith può sembrare assurdo visto oggi, dato che Siri non riesce nemmeno a chiamare la persona giusta quando glielo chiediamo.

“L’AI è il raro caso in cui penso che dovremmo essere proattivi nel regolamentare piuttosto che reagire dopo. Bisognerebbe già stabilire le regole di sicurezza da far rispettare nello sviluppo dell’AI perchè dopo potrebbe essere troppo tardi. L’AI è un rischio gravissimo per l’esistenza della civiltà umana “. Ha concluso Musk.

Il problema, dunque, sembra essere quello di essere certi di poter affrontare ogni eventualità che potrebbe presentarsi con le Intelligenze Artificiali in futuro.

Probabilmente non verranno mai a cercarci i T-1000 armati fino ai denti guidati dall’AI che abbiamo sviluppato noi nè la nostra automobile guidata dall’AI cercherà di ucciderci gettandosi addosso ad un muro ma potrebbero sorgere altri e più gravi problemi.

“Probabilmente la minaccia più grande potrebbe stare nel controllo di massa della popolazione attraverso l’esplorazione dei messaggi e gli eserciti di propaganda bot”, ha dichiarato François Chollet, creatore di una piattaforma netta rete neurale, a The Verge oppure, se i dispositivi armati venissero affidati alle decisioni dell’AI potrebbe scatenarsi una guerra nucleare a causa di un’errata valutazione.

Insomma, come in molti romanzi di fantascienza, il problema potrebbe stare nel fatto che non dovremo mai dimenticare durante la progettazione che l’AI viene sviluppata per servire noi, non per servirla.

Potrebbe essere il caso di studiare qualcosa di simile alle tre leggi della robotica di Isaac Asimov nella programmazione di base di tutte le AI che svilupperemo, quale che sia il loro scopo.

Share
Potresti trovare interessanti
Share
Share
%d blogger hanno fatto clic su Mi Piace per questo: