Nuove memorie di massa per lo sviluppo dell’Intelligenza Artificiale

La IBM ha comparato la memoria a cambiamento di fase con i meccanismi del cervello umano, notando che essa non ha compartimenti separati per immagazzinare e gestire i dati, e quindi consuma molto meno energia

0
14724
Indice

La maggior parte delle azioni che compiamo nel corso della giornata hanno a che vedere con dispositivi, più o meno connessi, il cui funzionamento è legato a linguaggi di programmazione che si fanno ogni giorno più sofisticati.

Guardando ad ambiti più ampi del singolo individuo, altri dispositivi, come per esempio i droni e i robot, vengono sempre più utilizzati per migliorare la qualità di servizi e di prodotti, sia in ambito pubblico che privato.

Recentemente, un nuovo paradigma di programmazione si è affacciato nel campo delle tecnologie informatiche: l’Intelligenza Artificiale.

Il sito dell’Enciclopedia Treccani definisce l’Intelligenza Artificiale come “una disciplina recente che negli anni ha fornito un importante contributo al progresso dell’intera informatica. Essa è stata inoltre influenzata da numerose discipline fra le quali la filosofia, la matematica, la psicologia, la cibernetica, le scienze cognitive.

L’intelligenza artificiale studia i fondamenti teorici, le metodologie e le tecniche che consentono di progettare sistemi hardware e sistemi di programmi software atti a fornire all’elaboratore elettronico prestazioni che, a un osservatore comune, sembrerebbero essere di pertinenza esclusiva dell’intelligenza umana.

Un elemento fondamentale dell’IA è il Machine Learning, ossia la capacità di apprendimento della IA stessa.



Essere in grado di decidere attraverso un’analisi di dati quali azioni sono necessarie per completare un’attività, invece che essere codificato per agire in modo predefinito, è ciò che rende “intelligente” un sistema, e che differenzia l’IA da altre forme di automazione.

I dispositivi che basano il loro funzionamento sull’IA richiedono, per i loro scopi, che si raggiungano elevati livelli di accuratezza con una riduzione del consumo di energia.

Tradizionalmente, i sistemi di IA utilizzano delle procedure che dividono le unità di memoria e di processo. In questo modo, i tempi necessari per il trasferimento dei dati tra due punti e l’ingente volume dei dati da trasferire portano a un consumo energetico rilevante.

Recentemente, la rivista Nature Communications ha riportato che la IBM ha progettato un nuovo metodo per eseguire un codice di programmazione in maniera più veloce e con costi minori. Il nuovo metodo si basa sulla memoria a cambiamento di fase.

Si tratta di un tipo di memoria ad accesso casuale (Random Access Memory – RAM), non volatile a stato solido, il cui materiale standard è una lega calcogenura composta da Germanio (Ge), Antimonio (Sb) e Tellurio (Te), nella composizione Ge2Sb2Te5.

La proprietà essenziale di questo materiale è che, quando viene attraversato da una corrente può modificare il suo stato, passando rapidamente tra gli stati amorfo e cristallino.

Ciò permette alla memoria di fornire delle prestazioni nettamente superiori ai più comunemente utilizzati moduli a memoria Flash. Questa memoria viene identificata anche con l’acronimo PCM (Phase Change Memory). Viene definita da alcuni come la memoria perfetta grazie alle sue straordinarie capacità prestazionali.

Un vantaggio chiave della tecnologia a cambiamento di fase, esplorata per la prima volta dalla Hewlett – Packard, è che lo stato della memoria non richiede un’alimentazione continua per rimanere stabile.

L’immissione di nuovi dati nella PCM non richiede, come nei tradizionali sistemi di immagazzinamento dei dati, il ciclo di cancellazione dei dati preesistenti e inoltre, poiché il codice può essere eseguito direttamente dalla memoria piuttosto che essere copiato all’interno della RAM, la PCM lavora molto più velocemente.

Vi sono oggi diversi settori, quali il riconoscimento delle immagini e della voce, la robotica e quello legato alla produzione di giochi, le cui tecnologie si basano sulle reti neurali, che richiedono livelli prestazionali sempre più elevati. Da ciò consegue la necessità di disporre di impianti con capacità di processamento sempre superiori, e con ingenti impegni economici per le aziende interessate.

L’obiettivo pertanto è quello di intraprendere un percorso che va verso l’ottimizzazione dei microchips e dell’hardware.

La IBM ha comparato la memoria a cambiamento di fase con i meccanismi del cervello umano, notando che essa non ha compartimenti separati per immagazzinare e gestire i dati, e quindi consuma molto meno energia.

Le memorie a cambiamento di fase hanno però un inconveniente, dato dalle incertezze computazionali dovute al rumore di conduttanza nelle fasi di lettura e scrittura dei dati.

I ricercatori della IBM hanno affrontato il problema introducendo questo rumore durante le sessioni di test di Intelligenza Artificiale, con l’idea che iniettare del rumore comparabile con il rumore del dispositivo, durante le fasi di prova delle reti neurali, avrebbe migliorato la robustezza dei modelli.

Effettivamente, con questo stratagemma il modello proposto dalla IBM ha evidenziato un’accuratezza computazionale del 93,7%, valore che, secondo i ricercatori IBM, rappresenta il più alto tasso di accuratezza realizzato da una memoria hardware comparabile con la PCM.

E comunque, affermano ancora i ricercatori IBM, c’è ancora tanto lavoro da fare per ottenere livelli ancora più elevati di accuratezza. Attualmente si stanno conducendo degli studi utilizzando delle reti neurali convoluzionali a piccola scala e reti generative antagoniste. I risultati di questi studi sono stati recentemente pubblicati nella rivista Frontiers in Neurosciences.

La rete neurale convoluzionale (CNN o ConvNet) è uno degli algoritmi più comuni per il deep learning, un tipo di machine learning in cui un modello computerizzato impara a svolgere attività di classificazione direttamente da immagini, video, testo o suoni.

Le CNN sono particolarmente utili per trovare pattern nelle immagini per riconoscere oggetti, volti e scene. Apprendono direttamente dai dati delle immagini, utilizzando i pattern per classificare le immagini ed eliminando la necessità dell’estrazione manuale delle feature.

Una rete antagonista generativa, in inglese generative adversarial network (GAN), è un algoritmo di intelligenza artificiale usato nell’apprendimento automatico non supervisionato. La sua caratteristica peculiare è l’impiego di due reti neurali distinte che si sfidano l’una con l’altra in un contesto di gioco a somma zero.

In un’era che sta sempre più transitando verso le tecnologie basate sull’IA, inclusi i dispositivi IoT alimentati a batterie e i veicoli autonomi, queste tecnologie potrebbero beneficiare degli algoritmi inferenziali delle reti neurali, che sono affidabili, veloci e a bassa alimentazione.

2