Il Glossario di Klondike sull'Intelligenza Artificiale

Le persone spesso vedono l’Intelligenza Artificiale come robot che prendono vita per interagire con gli umani. Ma l’AI è molto di più, e per capirne il significato nel suo complesso bisogna prima approfondire molti altri termini.

Noi di Klondike abbiamo deciso di creare un Glossario dell’Intelligenza Artificiale per permettere anche ai “non addetti ai lavori” di avvicinarsi a questo affascinante mondo e comprendere meglio alcuni termini le cui definizioni sono date troppo spesso per scontate.

Il Glossario sarà costantemente aggiornato, tornate per controllare tutti gli aggiornamenti.

A

ALGORITMO

L’algoritmo è una formula matematica, o un procedimento, che consente a un computer di risolvere un determinato problema. Nel campo dell’informatica si traduce in una sequenza di operazioni elementari, dette istruzioni, eseguibili da un computer.

Può trattarsi di un calcolo, dell’elaborazione di dati o dell’automatizzazione di attività ripetitive. Il termine deriva dal latino medievale algorismus mediato da al-Khuwārizmī, soprannome del matematico arabo Muḥammadibn Mūsa del nono secolo.

 

ANALISI PREDITTIVA

L’analisi predittiva consiste nell’utilizzare dati, algoritmi statistici e tecniche di machine learning per elaborare previsioni sui risultati futuri. I modelli predittivi ricercano schemi all’interno dei dati storici e di quelli transazionali, valutando la probabilità e la possibilità del verificarsi di determinati eventi in futuro.

Analizzando i dati passati, le aziende possono rilevare possibili rischi e identificare potenziali trend per cogliere nuove opportunità.

B

BOT

Per Bot o Chatbot, una delle soluzioni più diffuse e presenti all’interno delle aziende, si intende un software finalizzato alla comunicazione in linguaggio naturale con esseri umani e con il fine di automatizzare particolari compiti o reperire informazioni da banche dati. È uno strumento capace di offrire un’assistenza 24/7 tramite testi o audio sia ai propri clienti che ai propri dipendenti, e che si presta a diversi impieghi in differenti settori.

Un bot può vivere all’interno di un’altra applicazione come Facebook o Whatsapp, può essere integrato in siti per gestire i primi contatti di call center o help desk oppure può automatizzare il dialogo via email ed sms per fornire assistenza da parte di un’azienda o per un prodotto specifico.

C

CLASSIFICAZIONE

I modelli di classificazione sono in grado di identificare a quale categoria o classe appartiene un dato in entrata. Partendo da un set di valori ottenuti in precedenza, i modelli di classificazione generano set di regole che permettono di predire la classe o la categoria di dati futuri.

Quando le classi sono soltanto due (es. assegnare una mail alla classe spam o non spam) si parla di classificazione binaria, se le classi sono più di due si parla di classificazione multiclasse (es. determinare se una frase di input è in francese, spagnolo o italiano).

 

COMPUTER VISION

Gli algoritmi di Computer Vision permettono di analizzare e comprendere il contenuto di immagini o video. Non si tratta solo di riuscire a riconoscere oggetti, persone o animali all’interno di un’immagine o un video, ma si tratta della capacità di ricostruire un contesto intorno all’immagine, dandole un vero e proprio significato.

Per poter funzionare correttamente, i sistemi di Computer Vision hanno bisogno di essere addestrati con una grande quantità di immagini che andranno a costituire il dataset che potrà rendere l’algoritmo realmente intelligente

I sistemi di visione artificiale trovano numerose applicazioni, dalle videocamere di sorveglianza intelligenti all’utilizzo in ambito industriale e manifatturiero.

D

DATA MINING

Per Data mining si fa riferimento al processo automatizzato di individuazione di informazioni di varia natura tramite l’analisi di grandi quantità di dati non strutturati (che si possono trovare in database o banche dati).

L’estrapolazione di queste informazioni permette ai computer di riconoscere pattern, tendenze, modelli o schemi ricorrenti da poter utilizzare come base per prendere decisioni in settori come marketing, economia e finanza, scienza, industria, ecc.

 

DATA SCIENCE

La Data Science ha come obiettivo quello di comprendere e analizzare i fenomeni reali, cercando correlazioni logiche all’interno dei dati. In questo modo, vengono sviluppati schemi e modelli per ottenere nuove informazioni da poter sfruttare in altri ambiti.

I data scientist, ovvero i ricercatori che applicano queste metodologie, trasformano grandi quantità di dati “grezzi”, i Big Data, in preziose informazioni che le aziende utilizzano per migliorare i propri prodotti o per ottenere vantaggi competitivi.

Questo settore è in pieno sviluppo proprio grazie ai Big Data, e molte tecniche di Data Science sono diventate possibili ai giorni nostri grazie alla sempre maggiore capacità dei sistemi informatici di immagazzinare i dati del passato. Proprio grazie alla potenza di calcolo dei sistemi moderni è quindi possibile gestire questa grande mole di dati e trasformarli in informazioni utili.

 

DATI SINTETICI

I dati sintetici sono dati riprodotti artificialmente, mediante l’utilizzo di algoritmi di machine learning di tipo generativo. Basandosi su set di dati reali, viene generato un nuovo dataset che mantiene le stesse proprietà statistiche di quello originale, pur non condividendo alcun dato reale.

La sintetizzazione permette di rendere anonimi i dati e di crearli in base a parametri specificati dall’utente, in modo da essere il più vicino possibile ai dati acquisiti da scenari del mondo reale.

 

DEEP BLUE

Deep Blue fu il primo calcolatore ad aver vinto una partita a scacchi, con cadenza di tempo da torneo, contro un campione del mondo in carica (Garry Kasparov, 1997).

Deep Blue non era un normale calcolatore elettronico, ma un supercomputer in grado di elaborare e analizzare 200 milioni di mosse al secondo. Sfruttando un’ampia documentazione di partite di scacchi giocate, era in grado di memorizzare migliaia di aperture e chiusure diverse. Le sue capacità di calcolo gli permettevano di prevedere e valutare le possibili mosse e strategie con enorme anticipo, permettendo di rispondere dinamicamente alle mosse fatte da un avversario.

 

DEEP LEARNING

Il Deep Learning è una branca del Machine Learning, una delle più importanti e complesse da capire. Le tecniche di Deep Learning cercano di imitare la maniera in cui i neuroni sono organizzati nel nostro cervello.

Vengono infatti simulati processi di apprendimento del cervello umano attraverso le cosiddette ‘reti neurali’, che sono in grado di risolvere problemi di apprendimento automatico molto complessi senza avere la necessità di dati precedentemente introdotti (principio necessario per il Machine Learning).

E

I

IDP (INTELLIGENT DATA PROCESSING)

Gli algoritmi di Intelligent Data Processing (IDP) vengono utilizzati raccogliere dati e ottenere informazioni per avviare ed elaborare, sulla base di queste, azioni specifiche basate sulle informazioni acquisite.

Questa tipologia di AI viene direttamente applicata su dati strutturati e non per estrarre informazioni rilevanti, per esempio nel caso dei sistemi per la rilevazione delle frodi finanziarie o nell’analisi predittiva.

 

IMAGE PROCESSING

I sistemi di Image Processing sono in grado di eseguire alcune operazioni su immagini come ottenere un’immagine migliorata, riconoscere persone, animali e cose presenti o, in generale, estrarre alcune informazioni o caratteristiche utili da essa.

Le sue applicazioni spaziano dalla medicina all’elaborazione geologica, passando per altre applicazioni come la valutazione dei danni auto negli incidenti nelle assicurazioni.

 

IMAGE RECOGNITION

L’Image Recognition, sottocategoria della Computer Vision, è una tecnologia che consente di rilevare e identificare luoghi, persone, oggetti, caratteristiche e molti altri tipi di elementi all’interno di un’immagine o di un video.

Questo riconoscimento – possibile grazie a reti neurali addestrate precedentemente – può essere eseguito per rilevare se un elemento specifico è presente, oppure per classificare e assegnare un’immagine ad una categoria.

 

INTELLIGENZA ARTIFICIALE

L’Intelligenza Artificiale (in inglese Artificial Intelligence, AI) è un campo di ricerca che ha come obiettivo quello di sviluppare e programmare macchine dotate di capacità cognitive che siano ispirate ai modelli di apprendimento umani.

Questi software artificiali sono capaci di perseguire autonomamente una finalità definita, prendendo decisioni che solitamente sono affidate alle persone. Uno degli sviluppi attuali è quello di poter affidare a una macchina compiti complessi precedentemente delegati a un essere umano. Il termine AI è stato coniato per la prima volta da John McCarthy nel 1956.

 

INTELLIGENZA ARTIFICIALE DEBOLE (WEAK AI)

L’Intelligenza Artificiale debole (weak AI) racchiude al suo interno sistemi in grado di simulare alcune funzionalità cognitive dell’uomo senza tuttavia replicare le capacità intellettuali tipiche dell’uomo; si tratta di programmi di problem solving (la risoluzione di problemi) in grado di replicare alcuni ragionamenti logici umani per risolvere problemi o per consentire alle macchine di prendere decisioni (come per esempio nel gioco degli scacchi).

Nell’AI debole la macchina non è capace di pensare in modo autonomo ma ha bisogno della presenza dell’uomo. Il suo compito è semplicemente quello di realizzare un’intelligenza “simulata”. I problemi vengono risolti indagando su casi simili e, elaborando una serie di soluzioni, scegliendo quella più adatta al caso specifico.

 

INTELLIGENZA ARTIFICIALE FORTE (STRONG AI)

Nell’Intelligenza Artificiale forte (strong AI) si fanno rientrare in questa categoria i sistemi in grado di diventare sapienti cioè quelli che possono creare una propria intelligenza in modo autonomo senza emulare i processi di pensiero o le capacità cognitive umane. Nell’AI forte la macchina diventa essa stessa una mente, con una propria capacità cognitiva e non distinguibile da quella umana.

L’Intelligenza Artificiale forte si è concentrata su alcuni punti fondamentali: la logica matematica, il ragionamento e la dimostrazione automatica del problema, l’analisi del linguaggio e la pianificazione tramite gli algoritmi.

A differenza della AI debole che risolve un problema cercando di prevedere e emulando la scelta che avrebbe fatto l’uomo in quel determinato contesto, la AI forte si basa sul ragionamento logico e utilizza i dati a disposizione per sviluppare un’intelligenza generale, svincolata da esigenze specifiche, e dunque efficace in qualsiasi situazione

M

MACHINE LEARNING

Quando si parla di Machine Learning, in italiano apprendimento automatico, ci si riferisce a sistemi in grado di apprendere dall’esperienza, con un meccanismo simile (almeno in apparenza) a ciò che un essere umano fa dalla nascita.

Analizzando grandi quantità di dati, gli algoritmi di Machine Learning costruiscono dei modelli per spiegare il mondo e fanno delle previsioni sulla base della loro esperienza. Questa tipologia di programma è in grado di migliorare le proprie analisi e previsioni sulla base di esperienze accumulate e di ulteriori campioni di dati analizzati.

 

MCCARTHY, JOHN

John McCarthy (Boston 1927 – Stanford 2011) è considerato il padre dell’Intelligenza Artificiale.

Professore di Computer Science prima al Massachusetts Institute of Technology e poi alla Stanford University, a lui si devono le prime ricerche sull’Intelligenza Artificiale, di cui è considerato uno dei principali pionieri. Ideatore del linguaggio di programmazione LISP, usato nel campo della intelligenza artificiale per realizzare particolari strumenti software.

È stato lui a coniare il termine Intelligenza Artificiale nel 1956, anno in cui si tenne una conferenza estiva presso il Dartmouth College in America, nella quale questa nuova disciplina venne fondata.

N

NLP (NATURAL LANGUAGE PROCESSING)

Per NLP o Natural Language Processing (in italiano, elaborazione del linguaggio naturale) si intendono algoritmi di Intelligenza Artificiale (AI) in grado di analizzare e comprendere il linguaggio naturale, ovvero la lingua che utilizziamo tutti i giorni.

Il NLP consente una comunicazione tra uomo e macchina e si occupa di testi o sequenze di parole (pagine web, post sui social…), ma anche di comprendere il linguaggio parlato oltre che i testi (riconoscimento vocale). Le finalità possono variare dalla semplice comprensione del contenuto, alla traduzione, fino alla produzione di testo in modo autonomo a partire da dati o documenti forniti in input.

Nonostante le lingue siano in costante cambiamento e caratterizzate da modi di dire o espressioni difficili da tradurre, l’NLP trova numerosi ambiti applicativi come ad esempio i correttori ortografici o i sistemi di traduzione automatici per i testi scritti, i chatbot e gli assistenti vocali per il linguaggio parlato.

O

OCR (OPTICAL CHARACTER RECOGNITION)

Il riconoscimento ottico dei caratteri (OCR) è un’area della computer vision che permette di estrarre e riutilizzare le informazioni contenute in immagini di testo o documenti fisici, rilevando lettere, numeri o simboli e convertendoli automaticamente nella loro forma digitale.

L’OCR può essere utile a tutte quelle aziende che gestiscono documenti fisici e può avere numerose applicazioni come ad esempio per documenti legali, codici a barre o in ambito bancario.

P

PATTERN RECOGNITION

Il termine pattern viene usato per descrivere un modello o schema ricorrente, ma anche per indicare la ripetizione di comportamenti, azioni o situazioni.

Il Pattern Recognition consiste nell’analisi e identificazione di pattern all’interno di dati grezzi. Questi dati vengono classificati in base alle conoscenze già acquisite o alle informazioni estratte dai modelli già memorizzati. I dati in input possono essere parole o testi, immagini o file audio.

Il Pattern Recognition è utile per una moltitudine di applicazioni, tra cui l’elaborazione delle immagini, il riconoscimento vocale e testuale, il riconoscimento ottico dei caratteri in documenti scansionati come contratti e fatture.

R

RECOMMENDATION SYSTEM

I sistemi di Recommendation System sono progettati per raccomandare e indirizzare le preferenze, gli interessi, le decisioni dell’utente, basandosi su diversi fattori e informazioni da esso fornite, in maniera indiretta o diretta.

Questi sistemi sono oggi il pilastro principale del modello di business di tutte le piattaforme social ed eCommerce (Amazon, Netflix, Spotify, YouTube…).

Gli algoritmi tengono traccia delle azioni dell’utente e, comparandole con quelle degli altri, apprendono le sue preferenze e i suoi interessi. In questo modo, vengono trovare le somiglianze tra utenti e gli elementi per la raccomandazione e, man mano che l’utente utilizza la piattaforma, gli algoritmi suggeriscono in modo più preciso.

 

RETI NEURALI

Le reti neurali artificiali sono modelli matematici composti da neuroni artificiali che si ispirano al funzionamento delle reti neurali biologiche umane. Le reti neurali hanno ormai un impiego quotidiano e vengono utilizzate per risolvere problemi ingegneristici di Intelligenza Artificiale legati a diversi ambiti tecnologici come l’informatica, l’elettronica, la simulazione o altre discipline.

In inglese vengono definite ANN – Artificial Neural Network, ma da diversi anni si è passati al più semplice NN – Neural Network. Anche in Italia si parla semplicemente di reti neurali, senza distinzione tra reti biologiche o artificiali a seconda del contesto.

 

ROBOTIC PROCESS AUTOMATION (RPA)

La Robotic Process Automation (RPA) riguarda tutte le tecnologie e applicazioni utilizzate per imitare l’interazione dell’uomo con i sistemi informatici. Nello specifico, si tratta dell’automazione dei processi lavorativi eseguita ricorrendo a software (bot), che possono compiere in modo automatico attività ripetitive e imitare il comportamento umano.

A differenza delle classiche attività automatizzate che si basano su dati strutturati (ad esempio le API), con l’RPA è possibile gestire anche dati non strutturati (come immagini e documenti). Questo è possibile grazie all’integrazione con tecniche di Intelligenza Artificiale.

S

SENTIMENT ANALYSIS

La Sentiment Analysis è una tecnica di elaborazione del linguaggio naturale (NLP) utilizzata per ascoltare e analizzare i sentimenti e le opinioni espressi dagli utenti su social network, forum o blog riguardo a un prodotto, un’azienda o un servizio.

Raccogliendo dati da contenuti online che riguardano le emozioni che l’utente ha provato in specifici contesti, la Sentiment Analysis si concentra sulla polarità (positiva, negativa, neutrale) ma anche su sentimenti, emozioni (arrabbiato, felice, triste, ecc), urgenza (urgente, non urgente) e intenzioni (interessato, non interessato). Viene spesso eseguita per monitorare i feedback dei clienti rispetto a un determinato prodotto o servizio, analizzare la propria brand reputation o comprendere le esigenze dei clienti.

 

SISTEMI ESPERTI

I sistemi esperti riproducono artificialmente le prestazioni di una persona esperta in un determinato campo di conoscenza o materia. Questo programma informatico, dopo essere stato adeguatamente istruito da un professionista, è in grado di dedurre informazioni da un insieme di dati e da informazioni di partenza.

I sistemi esperti possono essere basati su regole (partendo da una serie di fatti i sistemi esperti ne deducono di nuovi, seguendo la logica vero-falso o il modello causa-effetto) o basati su alberi (partendo da una sequenza di fatti o decisioni, il sistema esperto crea un albero di possibili alternative e situazioni fino a giungere alla conclusione).

 

SPEECH RECOGNITION

Lo Speech Recognition è una funzionalità che permette a un computer di comprendere ed elaborare il linguaggio umano in un formato scritto o in altri formati di dati. Grazie all’impiego dell’Intelligenza Artificiale, questa tecnologia oggi è in grado di identificare non solo il linguaggio naturale, ma anche altre sfumature come accenti, dialetti o lingue.

Questo tipo di riconoscimento vocale consente di eseguire attività manuali che richiedono solitamente dei comandi ripetitivi, ad esempio nei chatbot con automazione vocale, per instradare le chiamate nei contact center, in soluzioni di dettatura e trascrizioni vocali, oppure nei controlli di interfacce utente per pc, mobile e sistemi di bordo.

T

TEST DI TURING

Un test sviluppato dallo scienziato inglese Alan Turing negli anni ’50 che verifica la capacità di una macchina di imitare il comportamento umano e di valutare la presenza o meno di intelligenza “umana” in una macchina.

Questo test, conosciuto anche come “Imitation game”, prevedeva la presenza di un giudice di fronte ad un terminale, tramite il quale egli poteva comunicare con due entità: un uomo e un computer. Se il giudice non riusciva a distinguere l’uomo dalla macchina, allora il computer aveva passato il test e poteva essere definito “intelligente”.

W

Vuoi automatizzare il tuo Business?​

Contattaci e raggiungi il prossimo livello