AI History: gli anni ’80 e i sistemi esperti

AI history

Il periodo successivo alla conferenza di Dartmouth che va del 1956 fino al 1974 circa fu definito la prima estate dell’Intelligenza Artificiale. Grazie ai progressi raggiunti, i ricercatori erano molto ottimisti riguardo il futuro dell’AI e i computer eseguivano una quantità sempre maggiore di operazioni, dal dialogare in lingua inglese al risolvere equazioni algebriche.

Nonostante i finanziamenti stanziati per la ricerca sull’AI, a quell’epoca i computer non erano ancora in grado di elaborare e memorizzare abbastanza quantità di dati e informazioni. L’AI aveva maggiori difficoltà proprio negli ambiti che sembravano più semplici, come la traduzione automatica o la riproduzione del linguaggio naturale. Ad esempio, un programma per l’analisi della lingua inglese era in grado di gestire un vocabolario di sole 20 parole.

I finanziatori si resero conto che la ricerca restituiva risultati insufficienti e ritirarono il loro supporto: cominciava così il primo inverno dell’AI che sarebbe durato fino agli inizi degli anni ’80.

 

I Sistemi Esperti

I primi programmi di AI erano scritti in modo da giungere alla soluzione di un problema “ragionando” tramite una serie di proposizioni logiche. È all’inizio degli anni ’80 che emerge un approccio differente: i sistemi basati sulla conoscenza.

Chiamati anche sistemi esperti, questi riproducono artificialmente le prestazioni di una persona esperta in un determinato campo di conoscenza o materia. Un sistema esperto è dunque un programma informatico che, dopo essere stato adeguatamente istruito da un professionista, è capace di dedurre informazioni da un insieme di dati e da informazioni di partenza.

Ne esistono di diverse tipologie in base al tipo di problema affrontato (interpretazione, riconoscimento, diagnosi) e alle sue caratteristiche.

A seguito dell’analisi di una serie di fatti o circostanze e tramite processi induttivi o deduttivi, un sistema esperto è in grado di giungere ad una conclusione e alla risoluzione di problemi particolarmente complessi anche senza l’intervento di un secondo esperto che abbia competenze specifiche sulla materia.

I sistemi esperti sono quindi modellati sulla conoscenza umana, e si comportano come dei consulenti: un esempio può essere quello di un sistema esperto che suggerisce e dà consigli a un medico generico riguardo diagnosi e terapia da adottare con un paziente.

 

DENDRAL, il primo Sistema Esperto

Il primo esempio di sistema esperto fu DENDRAL (acronimo del termine “DENDRitic ALgorithm”), sviluppato nel 1965 da Edward Feigenbaum, definito anche come il “padre dei sistemi esperti”, e da Joshua Lederberg alla Stanford University in California.

feigenbaum-dendral
Edward Feigenbaum (seduto), direttore del Computation Center, con i membri del Consiglio di Amministrazione del Computation Center nel 1966.

Il compito di questo programma era mappare la struttura delle molecole, per aiutare i chimici a identificare molecole organiche sconosciute. Analizzando l’analisi spettrale della molecola su una base di regole, DENDRAL definiva un insieme di possibili strutture; successivamente metteva queste a confronto con i dati per determinare quale fosse quella corretta. Il programma DENDRAL è considerato il primo sistema esperto perché ha permesso di automatizzare il processo decisionale e il comportamento di risoluzione dei problemi dei chimici organici. 

MYCIN, un altro sistema esperto derivato da DENDRAL, era invece pensato come uno strumento per aiutare i medici nella diagnosi di malattie infettive del sangue. Si concentrava infatti sull’identificazione dei batteri che causavano infezioni e sulla raccomandazione di antibiotici.

Questi primi sistemi esperti non risolvevano problemi generici, piuttosto sfruttavano la logica booleana (nella quale le variabili possono assumere solamente i valori vero o falso) e il ragionamento logico secondo un modello deterministico di causa-effetto. Nonostante fossero macchine che sembravano analizzare e “pensare”, l’esperto umano risultava comunque di gran lunga superiore al sistema esperto artificiale.

 

Anni ’80 e Sistemi Esperti di seconda generazione

Negli anni ‘80 aumentò l’interesse attorno all’applicazione dei sistemi esperti, i progetti e le sperimentazioni si moltiplicarono. Nacquero in questo modo sistemi esperti di “seconda generazione”: venne introdotto il modello probabilistico che ragiona sulle cause e sui possibili effetti.

Questo intenso periodo di sviluppo fu favorito anche dall’applicazione che i sistemi esperti ebbero in ambito industriale e commerciale. La prima implementazione che ebbe un significativo successo economico fu R1 (o Xcon, eXpert CONfigurer). Sviluppato all’Università Carnegie-Mellon da John Mc Dermott nel 1978, venne introdotto nel 1982 dalla Digital Equipment Corporation per configurare gli ordini di computer e migliorarne l’accuratezza: in base all’ordine del cliente, R1 era in grado di assicurare che l’ordine fosse completo ma anche di determinare le relazioni spaziali fra le componenti (il sistema aveva più di 100 componenti con varie possibilità di interazione). Quattro anni dopo, l’azienda era in grado di risparmiare 40 milioni di dollari all’anno.

Grazie a questo rinnovato successo, si tornò a finanziare e investire: nacquero nuovi sistemi basati sulla conoscenza e sull’ingegneria della conoscenzaL’interesse per i sistemi esperti fu internazionale: il Giappone fu la prima nazione a investire in modo massiccio nei computer progettati per l’AI, quindi l’America, il Regno Unito e il resto dell’Europa ne seguirono l’esempio.

Tuttavia, anche i sistemi esperti di seconda generazione non erano privi di problemi. Su tutti, la difficoltà nello scrivere le regole che riflettevano la conoscenza degli esperti, e la gestione e il mantenimento della stessa. Inoltre, il clamore intorno ai sistemi esperti stava crescendo molto più velocemente rispetto alla maturità tecnologica presente allora.

L’entusiasmo sfociò dunque in delusione. Apple e IBM introdussero computer per uso generico più potenti di quelli progettati per l’AI, stroncando il settore dell’Intelligenza Artificiale. Inoltre, nel 1987 la DARPA, l’agenzia governativa del Dipartimento della Difesa degli Stati Uniti e uno dei maggiori finanziatori della ricerca sull’Intelligenza Artificiale (solo nel 1985 aveva speso 100 milioni di dollari per ricerche nel settore), decise di interrompere gli investimenti scegliendo di concentrarsi su tecnologie con prospettive migliori nel breve termine.

Ancora una volta, gli investimenti, la fiducia e lo studio dell’Intelligenza Artificiale subirono un’altra battuta d’arresto, situazione che durerà fino alla metà degli anni ’90. Un altro inverno dell’AI stava arrivando e l’entusiasmo per i sistemi esperti svaniva.

 

Il ritorno delle Reti Neurali

Fin dalla loro nascita negli anni ‘40, le reti neurali­ appassionarono la comunità scientifica. Le reti neurali artificiali sono modelli matematici composti da neuroni artificiali ispirati alle reti neurali biologiche (umana o animale) e vengono utilizzate per risolvere problemi ingegneristici di Intelligenza Artificiale legati a diversi ambiti tecnologici come l’informatica, l’elettronica, la simulazione o altre discipline.

Le opinioni riguardo le reti neurali non sono sempre state positive. Nel 1969 Marvin Minsky e Seymour Papert, nel loro articolo “Perceptrons”, definirono le reti neurali inadeguate per risolvere problemi reali e per qualsiasi applicazione pratica.

Rete Neurale Artificiale

A metà degli anni ’80 ci fu però una riscoperta delle reti neurali e fu reinventato l’algoritmo di “back-propagation”, inizialmente ideato nel 1969 da Bryson e Ho, relativo all’apprendimento (inerente sia al lato dell’informatica sia a quello della psicologia) per le reti neurali.

Questo algoritmo permetteva di creare un’alternativa ai modelli simbolici (utilizzati da McCarthy, Newell e Simon e tanti altri) grazie ai modelli connessionisti, che si pongono l’obiettivo di spiegare il funzionamento della mente ricorrendo all’utilizzo di reti neurali artificiali. Tali modelli però, proprio come i precedenti, non furono in grado di creare un vero e proprio progresso scientifico.

Di conseguenza, i modelli basati su un approccio connessionista più che alternativi furono visti come complementari a quelli che utilizzavano un approccio simbolico.

 

Trovate altri articoli sull’affascinante storia dell’Intelligenza Artificiale sotto la categoria AIhistory o a questo link.

More To Explore

Vuoi automatizzare il tuo Business?

Contattaci e raggiungi il prossimo livello