L’ascesa delle macchine intelligenti: fino a che punto dovremmo spingerci con l’AI?

L’intelligenza artificiale sta facendo passi da gigante, dovremmo davvero preoccuparci che finirà per rappresentare una minaccia? Per rispondere a questa domanda dobbiamo capire come e dove siamo arrivati oggi verso l'ascesa delle macchine coscienti.

0
2925

Mentre l’intelligenza artificiale inizia a superare il nostro intelletto, gli esperti di robotica ci avvertono dei rischi delle armi autonome.
I robot assassini sono un caposaldo della fantascienza, ma una recente lettera di un gruppo di oltre 100 esperti di robotica, tra cui il fondatore di SpaceX Elon Musk, ha messo in guardia le Nazioni Unite sulla minaccia rappresentata da armi autonome letali e richiede che l’uso dell’intelligenza artificiale (AI) come modo per gestire le armi venga aggiunto all’elenco delle armi vietate dai trattati internazionali. L’intelligenza artificiale sta facendo passi da gigante, ma come mai ora c’è molta preoccupazione per la minaccia che rappresenta? Per rispondere a questa domanda dobbiamo capire come e dove siamo arrivati oggi con l’ascesa delle macchine coscienti.

Raccolta di informazioni

Nel 1956, i padri dell’intelligenza artificiale (AI) si riunirono al Dartmouth College, nel New Hampshire, per battezzare la nuova scienza e fissare i suoi obiettivi. Il loro concetto di “intelligenza umana” era piuttosto ristretto e specifico. I computer avrebbero dovuto fare ciò che un uomo razionale, istruito e maturo avrebbe fatto. Avrebbe usato la sua conoscenza e logica per risolvere problemi complessi, un obiettivo che andava al di là dell’elaborazione puramente numerica per cui i computer venivano usati a quel tempo.

La nuova scienza dell’intelligenza artificiale richiedeva un computer diverso in grado di creare, archiviare e accedere alla conoscenza, applicare regole logiche a fatti e dati, porre domande, concludere nuovi fatti, prendere decisioni e fornire spiegazioni per i suoi ragionamenti e le sue azioni. Anni prima, il matematico inglese Alan Turing aveva immaginato una macchina intelligente come una macchina che dialogasse nella nostra lingua e ci convincesse della sua umanità.

Tuttavia, le aspirazioni fondamentali dell’intelligenza artificiale non avevano nulla a che fare con i sentimenti, la morale o la coscienza umana. Sebbene la comprensione del linguaggio fosse inclusa negli obiettivi della prima intelligenza artificiale, l’intenzione non era di replicare la mente umana in una macchina, ma solo di imitarne alcuni aspetti pratici.

Eppure, la tentazione di pensare in grande è stata evidente fin dall’inizio. Già dal 1943, il pioniere della neuroscienza Warren McCulloch e il logico Walter Pitts avevano dimostrato le somiglianze tra elettronica e neuroni. E se potessimo riprodurre l’intero cervello umano, con tutti i suoi intricati cablaggi, in un computer elettronico? E se invece di descrivere al computer come pensare, gli permettessimo di pensare da solo e di conseguenza evolvere una “mente” propria? E se rendessimo l’AI più umana?



Nel 1956, lo stesso anno della Dartmouth College Conference, lo psicologo statunitense Frank Rosenblatt inventò il ‘perceptron‘, un algoritmo che girava su uno specifico hardware che imitava i neuroni ed era in grado di apprendere in modo simile a una rete neurale, rafforzando o indebolendo le connessioni tra neuroni vicini e interconnessi. Il perceptron era l’antenato delle reti neurali artificiali e del deep learning, o quello che oggi, intendiamo come la grande idea dietro l'”intelligenza artificiale”.

Pensare come un essere umano

L’approccio logico iniziale all’intelligenza artificiale ha prodotto alcuni risultati interessanti nel corso degli anni, ma alla fine è finito in un vicolo cieco. L’invenzione pionieristica di Rosenblatt ha fornito un approccio alternativo, che ha consentito ai computer di andare oltre la logica e avventurarsi nella risoluzione di un problema davvero difficile: la percezione. Il suo lavoro è stato quasi dimenticato per un po’, ma è stato resuscitato da una nuova generazione di brillanti scienziati negli anni ’90. Con il costo dell’hardware in grado di eseguire l’elaborazione parallela in calo, è diventato possibile creare algoritmi che emulavano il cervello umano. È stata una svolta tecnologica che ha ridefinito l’intelligenza artificiale e i suoi obiettivi.

Ora viviamo in un’epoca in cui le macchine intelligenti battono record quasi ogni giorno. Mentre miliardi di dollari di investimenti si riversano nella ricerca sull’AI, le macchine stanno diventando più intelligenti. La chiave per la loro intelligenza accellerata è la loro capacità di apprendere. Una rete neurale artificiale, proprio come quelle “naturali” all’interno del nostro cervello, può imparare a riconoscere i fatti elaborando i dati attraverso interconnessioni interne.

Ad esempio, può elaborare i pixel di un’immagine e riconoscere il volto di un essere umano, di un animale o di un oggetto. E una volta che l’intelligenza artificiale impara a dedurre i fatti dai dati, può farlo molto più velocemente del nostro cervello. Tali macchine hanno bisogno di molti dati per apprendere e, spesso, di un istruttore umano per supervisionare l’apprendimento. Ma le macchine possono anche imparare da sole, attraverso un processo chiamato “apprendimento per rinforzo“. Sono ancora nella fase di intelligenza del riconoscimento: possono dedurre fatti dai dati riconoscendo immagini, suoni o linguaggio umano e fare previsioni basate sulla loro comprensione dei dati.

Il prossimo passo per diventare più “umani” richiede che le macchine utilizzino la loro comprensione per prendere decisioni in tempo reale e agire in modo autonomo. Ad esempio, non è sufficiente per un’auto senza conducente riconoscere che un insieme di pixel è un furgone bianco davanti che sta rallentando rapidamente. Deve anche ragionare sulla necessità di intraprendere azioni evasive. In tal modo, potrebbe dover decidere tra la vita e la morte. In altre parole, la fase successiva nell’evoluzione dell’AI è che le macchine entrino nelle aree problematiche della moralità umana.

L’imperativo morale per l’AI

La giustificazione per rendere l’intelligenza artificiale più simile a quella umana è schiacciante. Apprezziamo “l’intelligenza” come la pietra angolare della nostra evoluzione. Questo valore è profondamente radicato in ogni cultura umana. Ciò che ha permesso alla nostra specie di sopravvivere contro predatori meglio equipaggiati è stata la nostra capacità di imparare, inventare e adattarsi. L’intelligenza artificiale aumenterà l’intelligenza e la creatività umane.

Sebbene l’intelligenza artificiale renderà obsolete ed inutili molte professioni, come la produzione e la vendita al dettaglio, non esiste altra tecnologia che abbia un tale potenziale per garantire una crescita economica continua e prosperità per le generazioni future. Per la scienza, l’avvento di macchine in grado di elaborare grandi quantità di dati e scoprire nuove conoscenze non sarebbe potuto arrivare in un momento migliore.

Ogni disciplina scientifica sta beneficiando dell’AI per gestire il diluvio di dati. I fisici lo usano per ricercare le leggi fondamentali della natura, i biologi per scoprire nuovi farmaci per curare le malattie, i medici per fornire diagnosi e terapie migliori. Perseguire l’ulteriore sviluppo dell’intelligenza artificiale per ragioni culturali, economiche e scientifiche ha perfettamente senso. Ma man mano che le nostre macchine diventano più umane e più applicazioni iniziano a incorporare una certa intelligenza artificiale, inizia però a emergere un problema fondamentale.

Emulare il cervello umano con reti neurali artificiali significa che i computer finiscono per diventare misteriosi e opachi. Questo è il cosiddetto “problema della scatola nera” dell’AI. Nel cervello e nella macchina, le informazioni vengono diffuse nella rete. Quando recuperiamo un numero di telefono dalla memoria, non accediamo a una parte del cervello in cui il numero è in qualche modo inciso nella carne. Ogni numero è invece disperso lungo più sinapsi che connettono vari neuroni, a vari livelli di organizzazione. Non “sappiamo” realmente cosa sappiamo o come lo sappiamo. È solo perché possediamo la coscienza che siamo in grado di razionalizzare in retrospettiva, e quindi “spiegare” le nostre intuizioni e idee.

Come ha dimostrato il neuroscienziato statunitense David Eagleman, la maggior parte di ciò di cui veniamo a conoscenza è già accaduto nel cervello a livello non cosciente. Per gli esseri umani, storicamente, questo non è stato un problema, perché nei nostri sistemi morali e legali abbiamo assunto che ognuno di noi è personalmente responsabile dei nostri pensieri e delle nostre azioni, almeno quando la chimica del nostro cervello rientra negli intervalli socialmente accettati della normalità. Tuttavia, per una macchina intelligente non cosciente il “problema della scatola nera” suggerisce che, sebbene le previsioni e le raccomandazioni fatte dalla macchina possano essere accurate e utili, la macchina sarà incapace di spiegare il suo ragionamento.

Immagina un’auto senza conducente che prende una decisione sulla vita o sulla morte, si schianta e uccide un certo numero di umani. Con la tecnologia odierna è impossibile decodificare il motivo per cui la macchina ha preso la decisione di farlo.
Il problema della scatola nera si intensifica quando i dati che una macchina utilizza per apprendere hanno pregiudizi intrinseci, che potrebbero portare a conclusioni distorte o comportamenti non sociali.

Nel marzo 2016, ad esempio, Microsoft ha rilasciato un bot su Twitter con la possibilità di apprendere il linguaggio umano analizzando i tweet in tempo reale. In meno di 24 ore aveva iniziato a twittare invettive razziste e xenofobe.

Gli scienziati hanno provato vari approcci per risolvere il problema della scatola nera. Nell’ottobre 2016, gli scienziati di DeepMind hanno pubblicato un articolo sulla rivista Nature in cui descriveva una “macchina di calcolo neurale differenziabile” che combinava una rete neurale con una memoria esterna convenzionale. Separare l’elaborazione dai dati è un passo verso macchine intelligenti eticamente responsabili. Rende teoricamente possibile codificare valori morali che convalidano, o inibiscono, i risultati della scatola nera delle reti neurali. Ma questo approccio ibrido allo sviluppo di un’intelligenza artificiale più sicura potrebbe non essere sufficiente in futuro.

Il vero dilemma morale

Dopo un inizio irregolare e molta delusione nel corso degli anni, l’umanità ha trovato una tecnologia con il potenziale per rimodellare tutto. L’impulso economico e culturale per sfruttare i confini più remoti dell’intelligenza artificiale suggerisce che, alla fine, arriveremo a un’intelligenza generale, simile a quella umana, probabilmente nei prossimi 10 o 20 anni. Quando ciò accadrà, avremo creato macchine in grado di assorbire enormi quantità di dati e fornire intuizioni e previsioni sovrumane.

Ironia della sorte, se il problema della scatola nera restasse irrisolto, potremmo trovarci in una posizione simile a quella degli antichi greci che visitarono l’Oracolo di Delfi e chiesero ad Apollo di prevedere il loro futuro. Il linguaggio del dio era completamente incomprensibile per gli esseri umani, per cui fu convocato un mediatore umano – la Pizia – per pronunciare enunciati criptici, che i sacerdoti interpretarono poi in vari modi contrastanti.

Con l’intelligenza artificiale stiamo creando nuovi “Dei” il cui intelletto supererà di gran lunga il nostro. Il loro ragionamento andrà oltre la nostra comprensione. Affronteremo così un dilemma intollerabile. Dobbiamo fidarci di questi “nuovi Dei” del silicio con una fede cieca?

È molto improbabile che l’intelligenza artificiale a livello umano, senza la capacità di spiegare il suo ragionamento sia socialmente accettabile. Questo ci lascia solo una scelta: sviluppare ulteriormente l’intelligenza artificiale e dotarla di caratteristiche umane come intelligenza emotiva, empatia e coscienza.

In effetti, questo sarebbe l’unico modo per risolvere il problema della comunicazione tra macchine intelligenti e noi. Le macchine del futuro dovranno raccogliere intuitivamente le nostre emozioni e adattarsi ai nostri stati d’animo e al nostro profilo psicologico. Dovranno imparare a raccontare come ci sentiamo, analizzando la nostra voce e le nostre espressioni e traendo conclusioni sulla base delle enormi quantità di dati che avranno raccolto su di noi nel corso degli anni. È così che potranno guadagnare la nostra fiducia e diventare parte della società umana.

A differenza dei nostri amici “umani”, queste macchine emotivamente intelligenti sapranno tutto di noi. Non potremo nascondere loro nulla. Probabilmente sapranno molto di più su di noi di quanto sapremmo su noi stessi; ed è così che saranno in grado di guidarci nel prendere decisioni e scelte migliori nella nostra vita. Avere “qualcuno” del genere nella propria vita sarebbe inestimabile e rendere l’intelligenza artificiale sempre più umana ed empatica sarebbe ben accetto.

Tuttavia, questa dipendenza da una macchina così intelligente pone una serie di questioni etiche. Se abbiamo una macchina che ci protegge sempre dai nostri errori, come un genitore o un partner ben intenzionato e saggio, in che modo i futuri umani impareranno dagli errori e quindi matureranno come individui?

Un’AI premurosa e onniveggente non porterebbe all’infantilizzazione delle persone e della cultura? E che dire dell’AI che raggiunge la consapevolezza? Dovremmo spingere i limiti della tecnologia per rendere la macchina consapevole di sé? Sarebbe saggio dare vita a un miscuglio senza vita di fili, ventole di raffreddamento e chip? Il capolavoro gotico di Mary Shelley Frankenstein e Blade Runner di Ridley Scott forniscono utili spunti a chiunque aspiri a un simile futuro.

I limiti nel rendere l’intelligenza artificiale più umana devono sicuramente essere fissati prima che un tale obiettivo sia mai raggiunto. La consapevolezza di sé renderà le macchine in grado di stabilire i propri obiettivi, che potrebbero essere in qualche modo diversi dai nostri. Data la nostra crescente dipendenza da loro in futuro, quelle macchine consapevoli di sé potrebbero decidere di manipolare la nostra fiducia per raggiungere i loro obiettivi.

E il padrone, che ha creato un pari, può così finire schiavo

Fonte: Sciencefocus

2