Il Glossario di Klondike sull’Intelligenza Artificiale

AI-glossary

Le persone spesso vedono l’Intelligenza Artificiale come robot che prendono vita per interagire con gli umani. Ma l’AI è molto di più, e per capirne il significato nel suo complesso bisogna prima approfondire molti altri termini.

Noi di Klondike abbiamo deciso di creare un Glossario dell’Intelligenza Artificiale per permettere anche ai “non addetti ai lavori” di avvicinarsi a questo affascinante mondo e comprendere meglio alcuni termini le cui definizioni sono date troppo spesso per scontate.

Il Glossario sarà costantemente aggiornato, tornate per controllare tutti gli aggiornamenti.

A

ALGORITMO

L’algoritmo è una formula matematica, o un procedimento, che consente a un computer di risolvere un determinato problema. Nel campo dell’informatica si traduce in una sequenza di operazioni elementari, dette istruzioni, eseguibili da un computer.

Può trattarsi di un calcolo, dell’elaborazione di dati o dell’automatizzazione di attività ripetitive. Il termine deriva dal latino medievale algorismus mediato da al-Khuwārizmī, soprannome del matematico arabo Muḥammadibn Mūsa del nono secolo.

 

ANALISI PREDITTIVA

L’analisi predittiva consiste nell’utilizzare dati, algoritmi statistici e tecniche di machine learning per elaborare previsioni sui risultati futuri. I modelli predittivi ricercano schemi all’interno dei dati storici e di quelli transazionali, valutando la probabilità e la possibilità del verificarsi di determinati eventi in futuro.

Analizzando i dati passati, le aziende possono rilevare possibili rischi e identificare potenziali trend per cogliere nuove opportunità.

 

ARTIFICIAL INTELLIGENCE OF THINGS

L’Artificial Intelligence of Things (AIoT) è la combinazione tra Intelligenza Artificiale (AI) all’interno delle soluzioni di Internet of things (IoT).  L’Internet of Things (o Internet delle Cose) si base sull’idea di oggetti “intelligenti” della vita quotidiana che sono interconnessi fra loro (grazie a internet) e sono in grado di scambiare informazioni possedute, raccolte e/o elaborate.

Grazie a questa integrazione, l’Intelligenza Artificiale potrà connettersi alla rete per elaborare dati e scambiare informazioni con altri oggetti, migliorando la gestione e l’analisi di enormi quantità di dati.  Le applicazioni in grado di integrare IoT e AI avranno un impatto radicale sulle aziende e sui consumatori. Alcuni dei moltissimi esempi? Veicoli autonomi, assistenza sanitaria da remoto, edifici intelligenti per uffici, manutenzione predittiva.

 

AUTO A GUIDA AUTONOMA

Le auto a guida autonoma utilizzano la tecnologia per sostituire il conducente con sistemi di sicurezza adatti per guidare in modo autonomo sulle strade. Un veicolo a guida autonoma usa una combinazione di sensori, telecamere, radar e Intelligenza Artificiale per monitorare le condizioni della strada, ma anche per spostarsi tra diverse destinazioni senza la necessità dell’intervento umano.

Prima di poter circolare su strada pubblica, le auto a guida autonoma devono superare una serie di test e ricevere autorizzazioni specifiche. La Society of Automotive Engineers (SAE) ha stabilito 6 livelli di automazione della guida che vanno da 0 (completamente manuale) a 5 (completamente autonomo).

B

BIG DATA

Con il termine Big Data ci si riferisce a enormi moli di dati che le aziende hanno prodotto e continuano quotidianamente a produrre. Questi possono essere analizzati e trasformati in informazioni di valore, consentendo alle aziende di migliorare le proprie decisioni e ottimizzare l’automazione dei processi. 

Nel 2001 lo studioso Doug Laney, con la teoria delle 3V, descrisse i 3 fattori che identificano i Big Data:

  • Varietà: i dati arrivano in modo disomogeneo per fonte e formato
  • Volume: la mole di dati proviene da molte sorgenti differenti
  • Velocità: i dati affluiscono in tempo reale molto velocemente e devono essere utilizzati in modo tempestivo.

Ai giorni nostri la situazione è cambiata e questa teoria è stata arricchita di altre due variabili: la Veridicità (la qualità e l’affidabilità dei dati) e il Valore (i dati permettono alle aziende di prendere decisioni più informate, tempestive e consapevoli).

Analizzare una grande mole di dati permette alle aziende di prendere decisioni più consapevoli come ad esempio descrivere la situazione attuale e passata dei propri processi aziendali, rispondere a domande su cosa potrebbe accadere in futuro oppure proporre soluzioni strategiche sulla base delle analisi fatte.

 
BOT

Per Bot o Chatbot, una delle soluzioni più diffuse e presenti all’interno delle aziende, si intende un software finalizzato alla comunicazione in linguaggio naturale con esseri umani e con il fine di automatizzare particolari compiti o reperire informazioni da banche dati. È uno strumento capace di offrire un’assistenza 24/7 tramite testi o audio sia ai propri clienti che ai propri dipendenti, e che si presta a diversi impieghi in differenti settori.

Un bot può vivere all’interno di un’altra applicazione come Facebook o Whatsapp, può essere integrato in siti per gestire i primi contatti di call center o help desk oppure può automatizzare il dialogo via email ed sms per fornire assistenza da parte di un’azienda o per un prodotto specifico.

C

CLASSIFICAZIONE

I modelli di classificazione sono in grado di identificare a quale categoria o classe appartiene un dato in entrata. Partendo da un set di valori ottenuti in precedenza, i modelli di classificazione generano set di regole che permettono di predire la classe o la categoria di dati futuri.

Quando le classi sono soltanto due (es. assegnare una mail alla classe spam o non spam) si parla di classificazione binaria, se le classi sono più di due si parla di classificazione multiclasse (es. determinare se una frase di input è in francese, spagnolo o italiano).

 

COMPUTER VISION

Gli algoritmi di Computer Vision permettono di analizzare e comprendere il contenuto di immagini o video. Non si tratta solo di riuscire a riconoscere oggetti, persone o animali all’interno di un’immagine o un video, ma si tratta della capacità di ricostruire un contesto intorno all’immagine, dandole un vero e proprio significato.

Per poter funzionare correttamente, i sistemi di Computer Vision hanno bisogno di essere addestrati con una grande quantità di immagini che andranno a costituire il dataset che potrà rendere l’algoritmo realmente intelligente

I sistemi di visione artificiale trovano numerose applicazioni, dalle videocamere di sorveglianza intelligenti all’utilizzo in ambito industriale e manifatturiero.

D

DATA MINING

Per Data mining si fa riferimento al processo automatizzato di individuazione di informazioni di varia natura tramite l’analisi di grandi quantità di dati non strutturati (che si possono trovare in database o banche dati).

L’estrapolazione di queste informazioni permette ai computer di riconoscere pattern, tendenze, modelli o schemi ricorrenti da poter utilizzare come base per prendere decisioni in settori come marketing, economia e finanza, scienza, industria, ecc.

 

DATA SCIENCE

La Data Science ha come obiettivo quello di comprendere e analizzare i fenomeni reali, cercando correlazioni logiche all’interno dei dati. In questo modo, vengono sviluppati schemi e modelli per ottenere nuove informazioni da poter sfruttare in altri ambiti.

I data scientist, ovvero i ricercatori che applicano queste metodologie, trasformano grandi quantità di dati “grezzi”, i Big Data, in preziose informazioni che le aziende utilizzano per migliorare i propri prodotti o per ottenere vantaggi competitivi.

Questo settore è in pieno sviluppo proprio grazie ai Big Data, e molte tecniche di Data Science sono diventate possibili ai giorni nostri grazie alla sempre maggiore capacità dei sistemi informatici di immagazzinare i dati del passato. Proprio grazie alla potenza di calcolo dei sistemi moderni è quindi possibile gestire questa grande mole di dati e trasformarli in informazioni utili.

 

DATI SINTETICI

I dati sintetici sono dati riprodotti artificialmente, mediante l’utilizzo di algoritmi di machine learning di tipo generativo. Basandosi su set di dati reali, viene generato un nuovo dataset che mantiene le stesse proprietà statistiche di quello originale, pur non condividendo alcun dato reale.

La sintetizzazione permette di rendere anonimi i dati e di crearli in base a parametri specificati dall’utente, in modo da essere il più vicino possibile ai dati acquisiti da scenari del mondo reale.

 

DEEP BLUE

Deep Blue fu il primo calcolatore ad aver vinto una partita a scacchi, con cadenza di tempo da torneo, contro un campione del mondo in carica (Garry Kasparov, 1997).

Deep Blue non era un normale calcolatore elettronico, ma un supercomputer in grado di elaborare e analizzare 200 milioni di mosse al secondo. Sfruttando un’ampia documentazione di partite di scacchi giocate, era in grado di memorizzare migliaia di aperture e chiusure diverse. Le sue capacità di calcolo gli permettevano di prevedere e valutare le possibili mosse e strategie con enorme anticipo, permettendo di rispondere dinamicamente alle mosse fatte da un avversario.

 

DEEPFAKE

Con il termine deepfake si fa riferimento ad una tecnica di Intelligenza Artificiale che consenti di creare contenuti partendo da una base reale di immagini, video o registrazioni audio. Le tecniche di deepfake permettono di modificare o ricreare, in modo estremamente realistico, le caratteristiche e le espressioni facciali oppure il timbro vocale della persona raffigurata.

Usato in diverse situazioni soprattutto negli ultimi anni, la diffusione di materiale deepfake porta con sé numerosi rischi: può essere usato per creare fake news, bufale e truffe, per compiere atti di cyberbullismo o altri crimini informatici di varia natura.

 

DEEP LEARNING

Il Deep Learning è una branca del Machine Learning, una delle più importanti e complesse da capire. Le tecniche di Deep Learning cercano di imitare la maniera in cui i neuroni sono organizzati nel nostro cervello.

Vengono infatti simulati processi di apprendimento del cervello umano attraverso le cosiddette ‘reti neurali’, che sono in grado di risolvere problemi di apprendimento automatico molto complessi senza avere la necessità di dati precedentemente introdotti (principio necessario per il Machine Learning).

E

F

FORECASTING ALGORITHM

Un Forecasting Algorithm, in italiano Algoritmo di Previsione, è un tipo di algoritmo utilizzato per fare previsioni probabili o stime future basate su pattern e tendenze storiche.

In sostanza, questi algoritmi analizzano i modelli e le tendenze nei dati passati per identificare schemi che possono essere utilizzati per fare previsioni possibili sul futuro.

Questi algoritmi di previsione possono essere molto efficaci per anticipare eventi o risultati futuri, prendendo decisioni informate, pianificando le risorse e mitigando i rischi in una vasta gamma di settori (economia, finanza, meteorologia, produzione, ecc).

I

IDP (INTELLIGENT DATA PROCESSING)

Gli algoritmi di Intelligent Data Processing (IDP) vengono utilizzati raccogliere dati e ottenere informazioni per avviare ed elaborare, sulla base di queste, azioni specifiche basate sulle informazioni acquisite.

Questa tipologia di AI viene direttamente applicata su dati strutturati e non per estrarre informazioni rilevanti, per esempio nel caso dei sistemi per la rilevazione delle frodi finanziarie o nell’analisi predittiva.

IMAGE PROCESSING

I sistemi di Image Processing sono in grado di eseguire alcune operazioni su immagini come ottenere un’immagine migliorata, riconoscere persone, animali e cose presenti o, in generale, estrarre alcune informazioni o caratteristiche utili da essa.

Le sue applicazioni spaziano dalla medicina all’elaborazione geologica, passando per altre applicazioni come la valutazione dei danni auto negli incidenti nelle assicurazioni.

IMAGE RECOGNITION

L’Image Recognition, sottocategoria della Computer Vision, è una tecnologia che consente di rilevare e identificare luoghi, persone, oggetti, caratteristiche e molti altri tipi di elementi all’interno di un’immagine o di un video.

Questo riconoscimento – possibile grazie a reti neurali addestrate precedentemente – può essere eseguito per rilevare se un elemento specifico è presente, oppure per classificare e assegnare un’immagine ad una categoria.

INTELLIGENZA ARTIFICIALE

L’Intelligenza Artificiale (in inglese Artificial Intelligence, AI) è un campo di ricerca che ha come obiettivo quello di sviluppare e programmare macchine dotate di capacità cognitive che siano ispirate ai modelli di apprendimento umani.

Questi software artificiali sono capaci di perseguire autonomamente una finalità definita, prendendo decisioni che solitamente sono affidate alle persone. Uno degli sviluppi attuali è quello di poter affidare a una macchina compiti complessi precedentemente delegati a un essere umano. Il termine AI è stato coniato per la prima volta da John McCarthy nel 1956.

INTELLIGENZA ARTIFICIALE GENERALE

L’Intelligenza Artificiale Generale (in inglese Artificial General Intelligence, o AGI) è un tipo di AI che possiede la capacità di comprendere, apprendere e affrontare compiti complessi in modo simile agli esseri umani.

Rispetto ai Sistemi di Intelligenza Artificiale specializzati in compiti specifici (Intelligenza Artificiale Stretta o ASI – Narrow AI), un AGI dimostra versatilità cognitiva, apprendimento da esperienze diverse, comprensione e adattabilità a una vasta gamma di situazioni senza richiedere programmazioni specifiche per ogni singolo compito.

Nonostante la distanza attuale, l’obiettivo finale di una AGI è – per quanto compito sicuramente complesso -quello di andare a replicare il più vicino possibile la mente e le capacità cognitive umane

INTELLIGENZA ARTIFICIALE STRETTA

Con Intelligenza Artificiale Stretta (ASI), conosciuta anche come Narrow AI in inglese, ci riferiamo a sistemi di Intelligenza Artificiale specializzati in compiti specifici.

A differenza dell’Intelligenza Artificiale Generale (AGI), che emula le capacità cognitive umane in modo completo, l’ASI è progettata per eseguire operazioni circoscritte e ben definite.

Questi sistemi sono altamente efficienti nel compiere attività specifiche, focalizzandosi su compiti limitati come il riconoscimento vocale o la traduzione automatica, limitando la loro intelligenza alle funzioni specifiche per cui sono stati progettati.

INTELLIGENZA ARTIFICIALE GENERATIVA

L’AI generativa è una sottocategoria dell’Intelligenza Artificiale in grado di creare autonomamente nuovi contenuti.

I software di AI generativa partono da prompt (richieste o descrizioni) formulate in linguaggio naturale dall’utente e genera contenuti come immagini, testi, audio, video, codice di programmazione e molto altro ancora.

Questa branca dell’AI si basa su modelli generativi che sono sistemi capaci di apprendere da dataset di contenuti esistenti e poi generare nuovi contenuti simili a quelli presenti nel set di addestramento.

L

LLM

I Large Language Models (LLM) sono reti neurali molto efficaci nel comprendere e generare il linguaggio umano in modo simile a come lo farebbe una persona.

Questi modelli vengono addestrati su enormi dataset testuali raccolti dal web o da altre fonti (miliardi di parametri) e utilizzano le reti neurali trasformative per apprendere le strutture linguistiche, le sfumature del linguaggio e le relazioni tra parole all’interno dei testi.

Uno dei grandi vantaggi di questi modelli è la loro capacità di catturare i contesti e le complessità del linguaggio naturale, consentendo loro di rispondere a domande, completare frasi, tradurre testi e svolgere una serie di altre attività linguistiche.

Gli LLM sono un sottoinsieme delle reti Transformer.

M

MACHINE LEARNING

Quando si parla di Machine Learning, in italiano apprendimento automatico, ci si riferisce a sistemi in grado di apprendere dall’esperienza, con un meccanismo simile (almeno in apparenza) a ciò che un essere umano fa dalla nascita.

Analizzando grandi quantità di dati, gli algoritmi di Machine Learning costruiscono dei modelli per spiegare il mondo e fanno delle previsioni sulla base della loro esperienza. Questa tipologia di programma è in grado di migliorare le proprie analisi e previsioni sulla base di esperienze accumulate e di ulteriori campioni di dati analizzati.

 

MCCARTHY, JOHN

John McCarthy (Boston 1927 – Stanford 2011) è considerato il padre dell’Intelligenza Artificiale.

Professore di Computer Science prima al Massachusetts Institute of Technology e poi alla Stanford University, a lui si devono le prime ricerche sull’Intelligenza Artificiale, di cui è considerato uno dei principali pionieri. Ideatore del linguaggio di programmazione LISP, usato nel campo della intelligenza artificiale per realizzare particolari strumenti software.

È stato lui a coniare il termine Intelligenza Artificiale nel 1956, anno in cui si tenne una conferenza estiva presso il Dartmouth College in America, nella quale questa nuova disciplina venne fondata.

N

NLP (NATURAL LANGUAGE PROCESSING)

Per NLP o Natural Language Processing (in italiano, elaborazione del linguaggio naturale) si intendono algoritmi di Intelligenza Artificiale (AI) in grado di analizzare e comprendere il linguaggio naturale, ovvero la lingua che utilizziamo tutti i giorni.

Il NLP consente una comunicazione tra uomo e macchina e si occupa di testi o sequenze di parole (pagine web, post sui social…), ma anche di comprendere il linguaggio parlato oltre che i testi (riconoscimento vocale). Le finalità possono variare dalla semplice comprensione del contenuto, alla traduzione, fino alla produzione di testo in modo autonomo a partire da dati o documenti forniti in input.

Nonostante le lingue siano in costante cambiamento e caratterizzate da modi di dire o espressioni difficili da tradurre, l’NLP trova numerosi ambiti applicativi come ad esempio i correttori ortografici o i sistemi di traduzione automatici per i testi scritti, i chatbot e gli assistenti vocali per il linguaggio parlato.

O

OCR (OPTICAL CHARACTER RECOGNITION)

Il riconoscimento ottico dei caratteri (OCR) è un’area della computer vision che permette di estrarre e riutilizzare le informazioni contenute in immagini di testo o documenti fisici, rilevando lettere, numeri o simboli e convertendoli automaticamente nella loro forma digitale.

L’OCR può essere utile a tutte quelle aziende che gestiscono documenti fisici e può avere numerose applicazioni come ad esempio per documenti legali, codici a barre o in ambito bancario.

P

PATTERN RECOGNITION

Il termine pattern viene usato per descrivere un modello o schema ricorrente, ma anche per indicare la ripetizione di comportamenti, azioni o situazioni.

Il Pattern Recognition consiste nell’analisi e identificazione di pattern all’interno di dati grezzi. Questi dati vengono classificati in base alle conoscenze già acquisite o alle informazioni estratte dai modelli già memorizzati. I dati in input possono essere parole o testi, immagini o file audio.

Il Pattern Recognition è utile per una moltitudine di applicazioni, tra cui l’elaborazione delle immagini, il riconoscimento vocale e testuale, il riconoscimento ottico dei caratteri in documenti scansionati come contratti e fatture.

R

RECOMMENDATION SYSTEM

I sistemi di Recommendation System sono progettati per raccomandare e indirizzare le preferenze, gli interessi, le decisioni dell’utente, basandosi su diversi fattori e informazioni da esso fornite, in maniera indiretta o diretta.

Questi sistemi sono oggi il pilastro principale del modello di business di tutte le piattaforme social ed eCommerce (Amazon, Netflix, Spotify, YouTube…).

Gli algoritmi tengono traccia delle azioni dell’utente e, comparandole con quelle degli altri, apprendono le sue preferenze e i suoi interessi. In questo modo, vengono trovare le somiglianze tra utenti e gli elementi per la raccomandazione e, man mano che l’utente utilizza la piattaforma, gli algoritmi suggeriscono in modo più preciso.

 

RETI NEURALI

Le reti neurali artificiali sono modelli matematici composti da neuroni artificiali che si ispirano al funzionamento delle reti neurali biologiche umane. Le reti neurali hanno ormai un impiego quotidiano e vengono utilizzate per risolvere problemi ingegneristici di Intelligenza Artificiale legati a diversi ambiti tecnologici come l’informatica, l’elettronica, la simulazione o altre discipline.

In inglese vengono definite ANN – Artificial Neural Network, ma da diversi anni si è passati al più semplice NN – Neural Network. Anche in Italia si parla semplicemente di reti neurali, senza distinzione tra reti biologiche o artificiali a seconda del contesto.

 

ROBOTIC PROCESS AUTOMATION (RPA)

La Robotic Process Automation (RPA) riguarda tutte le tecnologie e applicazioni utilizzate per imitare l’interazione dell’uomo con i sistemi informatici. Nello specifico, si tratta dell’automazione dei processi lavorativi eseguita ricorrendo a software (bot), che possono compiere in modo automatico attività ripetitive e imitare il comportamento umano.

A differenza delle classiche attività automatizzate che si basano su dati strutturati (ad esempio le API), con l’RPA è possibile gestire anche dati non strutturati (come immagini e documenti). Questo è possibile grazie all’integrazione con tecniche di Intelligenza Artificiale.

S

SENTIMENT ANALYSIS

La Sentiment Analysis è una tecnica di elaborazione del linguaggio naturale (NLP) utilizzata per ascoltare e analizzare i sentimenti e le opinioni espressi dagli utenti su social network, forum o blog riguardo a un prodotto, un’azienda o un servizio.

Raccogliendo dati da contenuti online che riguardano le emozioni che l’utente ha provato in specifici contesti, la Sentiment Analysis si concentra sulla polarità (positiva, negativa, neutrale) ma anche su sentimenti, emozioni (arrabbiato, felice, triste, ecc), urgenza (urgente, non urgente) e intenzioni (interessato, non interessato). Viene spesso eseguita per monitorare i feedback dei clienti rispetto a un determinato prodotto o servizio, analizzare la propria brand reputation o comprendere le esigenze dei clienti.

 

SISTEMI ESPERTI

I sistemi esperti riproducono artificialmente le prestazioni di una persona esperta in un determinato campo di conoscenza o materia. Questo programma informatico, dopo essere stato adeguatamente istruito da un professionista, è in grado di dedurre informazioni da un insieme di dati e da informazioni di partenza.

I sistemi esperti possono essere basati su regole (partendo da una serie di fatti i sistemi esperti ne deducono di nuovi, seguendo la logica vero-falso o il modello causa-effetto) o basati su alberi (partendo da una sequenza di fatti o decisioni, il sistema esperto crea un albero di possibili alternative e situazioni fino a giungere alla conclusione).

 

SPEECH RECOGNITION

Lo Speech Recognition è una funzionalità che permette a un computer di comprendere ed elaborare il linguaggio umano in un formato scritto o in altri formati di dati. Grazie all’impiego dell’Intelligenza Artificiale, questa tecnologia oggi è in grado di identificare non solo il linguaggio naturale, ma anche altre sfumature come accenti, dialetti o lingue.

Questo tipo di riconoscimento vocale consente di eseguire attività manuali che richiedono solitamente dei comandi ripetitivi, ad esempio nei chatbot con automazione vocale, per instradare le chiamate nei contact center, in soluzioni di dettatura e trascrizioni vocali, oppure nei controlli di interfacce utente per pc, mobile e sistemi di bordo.

T

TEST DI TURING

Un test sviluppato dallo scienziato inglese Alan Turing negli anni ’50 che verifica la capacità di una macchina di imitare il comportamento umano e di valutare la presenza o meno di intelligenza “umana” in una macchina.

Questo test, conosciuto anche come “Imitation game”, prevedeva la presenza di un giudice di fronte ad un terminale, tramite il quale egli poteva comunicare con due entità: un uomo e un computer. Se il giudice non riusciva a distinguere l’uomo dalla macchina, allora il computer aveva passato il test e poteva essere definito “intelligente”.

 

TRANSFORMER

Le reti neurali Transformer sono un tipo di reti neurali introdotte nel 2017 da Google nell’articolo “Attention Is All You Need”. Questa architettura è diventata uno dei modelli più utilizzati nell’ambito dell’elaborazione del linguaggio naturale (NLP) e in altre applicazioni.

Le reti neurali Transformer sono basate sull’attenzione, un meccanismo che consente alla rete di imparare le relazioni tra diverse parti di un input come parole e frasi. Per questo sono efficaci nel gestire le relazioni tra parole o unità linguistiche all’interno di un testo.

Le reti Transformer sono particolarmente adatte per compiti di Natural Language Processing (NLP) come la traduzione automatica, la generazione di testi, la classificazione del linguaggio naturale e altro ancora.

More To Explore

Vuoi automatizzare il tuo Business?

Contattaci e raggiungi il prossimo livello