Cos'è l'Intelligenza Artificiale (AI)?| IBM
Cos'è l'intelligenza artificiale (AI)?
Esplora le soluzioni AI di IBM Abbonati per ricevere gli aggiornamenti sull'AI
Illustrazione di come l'AI consente ai computer di pensare come gli esseri umani, delle applicazioni interconnesse e dell'impatto sulla vita moderna
Che cos'è l'AI? 

L'intelligenza artificiale, o AI, è una tecnologia che consente a computer e macchine di simulare l'intelligenza e la capacità di risoluzione dei problemi degli esseri umani.

Da sola o in combinazione con altre tecnologie (ad esempio, sensori, geolocalizzazione, robotica) l'AI può eseguire compiti che altrimenti richiederebbero l'intelligenza o l'intervento umano.Gli assistenti digitali, la guida GPS, i veicoli autonomi e gli strumenti di AI generativa (come Chat GPT di Open AI) sono solo alcuni esempi della presenza dell'AI nelle notizie quotidiane e nella nostra vita quotidiana.

Come campo dell'informatica, l'intelligenza artificiale comprende (ed è spesso menzionata insieme a) il machine learning e il deep learning. Queste discipline prevedono lo sviluppo di algoritmi di AI, modellati sui processi decisionali del cervello umano, che possono "imparare" dai dati disponibili e fare classificazioni o previsioni sempre più accurate nel tempo.

L'intelligenza artificiale ha attraversato molti cicli di hype, ma anche per gli scettici il rilascio di ChatGPT sembra segnare un punto di svolta. L'ultima volta che l'AI generativa ha avuto un'importanza così grande, i progressi sono stati compiuti nella computer vision, ma ora il salto di qualità è nell'elaborazione del linguaggio naturale (NLP). Oggi, l’AI generativa è in grado di apprendere e sintetizzare non solo il linguaggio umano, ma anche altri tipi di dati, tra cui immagini, video, codice software e persino strutture molecolari.

Le applicazioni per l'AI crescono di giorno in giorno. Ma, man mano che l'hype sull'uso degli strumenti di AI negli affari decolla, si comincia a parlare sempre più spesso e in modo sempre più urgente dell'etica dell'AI e sull'AI responsabile. Per saperne di più sulla posizione di IBM su questi temi, leggi Creare fiducia nell'AI.

Perché la governance dell'AI è un imperativo aziendale per scalare l'AI aziendale

Scopri gli ostacoli all'adozione dell'AI, in particolare la mancanza di soluzioni di governance e gestione del rischio dell'AI.

Contenuti correlati

Registrati per leggere la guida sui foundation model

Tipi di intelligenza artificiale: AI debole e AI forte

L'AI debole, detta anche AI ristretta o intelligenza artificiale ristretta (ANI), è un'AI addestrata e orientata a eseguire attività specifiche. L'AI debole è alla base della maggior parte dell'AI che ci circonda oggi. "Ristretta" potrebbe essere un termine più preciso per descrivere questo tipo di AI, in quanto è tutt'altro che debole; abilita alcune applicazioni molto robuste, come Siri di Apple, Alexa di Amazon, IBM watsonx e i veicoli autonomi.

L'AI forte è composta da intelligenza artificiale generale (AGI) e superintelligenza artificiale (ASI). L'AGI, o AI generale, è una forma teorica di AI secondo la quale una macchina avrebbe un'intelligenza pari a quella umana, una coscienza autoconsapevole con la capacità di risolvere problemi, imparare e pianificare il futuro. L'ASI, nota anche come superintelligenza, supererebbe l'intelligenza e le capacità del cervello umano. Sebbene l'AI forte sia ancora del tutto teorica e non vi siano esempi pratici in uso oggi, ciò non significa che i ricercatori di AI non ne stiano esplorando gli sviluppi. Nel frattempo, i migliori esempi di ASI potrebbero essere tratti dalla fantascienza, come HAL, il supercomputer malvagio in 2001: Odissea nello spazio.

Apprendimento profondo e apprendimento automatico

Il machine learning e il deep learning sono sottodiscipline dell'AI, e il deep learning è a sua volta una sottodisciplina del machine learning.

Sia il machine learning che gli algoritmi di deep learning utilizzano le reti neurali per "imparare" da enormi quantità di dati. Queste reti neurali sono strutture programmatiche modellate a imitazione dei processi decisionali del cervello umano. Sono costituite da strati di nodi interconnessi che estraggono funzioni dai dati e fanno previsioni su ciò che i dati rappresentano.

Machine learning e deep learning si differenziano per i tipi di reti neurali utilizzati e per la quantità di intervento umano richiesto. Gli algoritmi di apprendimento automatico classico utilizzano reti neurali con un layer di input, uno o due layer "nascosti" e un layer di output. In genere, questi algoritmi si limitano all'apprendimento supervisionato: i dati devono essere strutturati o etichettati da esperti umani per consentire all'algoritmo di estrarre funzioni dai dati.

Gli algoritmi di deep learning utilizzano reti neurali profonde, ossia reti composte da un livello di input, tre o più (ma solitamente centinaia) livelli nascosti e un layout di output. Questi livelli multipli consentono l'apprendimento non supervisionato: automatizzano l'estrazione di funzionalità da set di dati di grandi dimensioni, non etichettati e non strutturati. Poiché non richiede l'intervento umano, il deep learning consente essenzialmente l'apprendimento automatico su larga scala.

 

L'ascesa dei modelli generativi

L'AI generativa si riferisce a modelli di apprendimento profondo che possono prendere dati non elaborati (ad esempio, tutta Wikipedia o le opere raccolte di Rembrandt) e "imparare" a generare risultati statisticamente probabili quando richiesto. Ad un livello superiore, i modelli generativi codificano una rappresentazione semplificata dei dati di addestramento e ne attingono per creare un risultato simile, ma non identico, ai dati originali.

I modelli generativi sono stati utilizzati per anni in statistica per analizzare i dati numerici. L’ascesa dell'apprendimento profondo, tuttavia, ha reso possibile l'estensione a immagini, parlato e altri tipi di dati complessi. Tra la prima classe di modelli AI che hanno raggiunto questa impresa trasversale ci sono gli autoencoder variazionali, o VAE, introdotti nel 2013. I VAE sono stati i primi modelli di apprendimento profondo ad essere ampiamente utilizzati per generare immagini e discorsi realistici.

"I VAE hanno aperto le porte alla modellazione generativa profonda rendendo i modelli più facili da scalare", ha dichiarato Akash Srivastava, esperto di AI generativa presso il MIT-IBM Watson AI Lab. "Gran parte di ciò che oggi consideriamo AI generativa è iniziata da qui".

I primi esempi di modelli, fra cui GPT-3, BERT o DALL-E 2, hanno dimostrato cosa sia possibile fare. Il futuro è rappresentato da modelli che verranno addestrati su un ampio insieme di dati non etichettati che possono essere utilizzati per attività diverse, con una ottimizzazione minima. I sistemi che eseguono attività specifiche in un singolo dominio lasciano posto a sistemi AI più ampi, che apprendono in modo più generale e operano su più domini e problemi. I modelli di fondazione, addestrati su dataset di grandi dimensioni non etichettati e ottimizzati per una serie di applicazioni, stanno guidando questo cambiamento.

Per quanto riguarda il futuro dell'AI, quando si parla dell'AI generativa, si prevede che i modelli di fondazione accelereranno drasticamente l'adozione dell'IA nelle aziende. La riduzione dei requisiti di etichettatura renderà molto più facile per le aziende lanciarsi in questa impresa e l'automazione altamente accurata ed efficiente guidata dall'IA che essi consentono di realizzare significherà consentirà a un numero molto maggiore di aziende di impiegare l'AI in una gamma più ampia di situazioni mission-critical. Per IBM, la speranza è che la potenza di elaborazione dei modelli di fondazione possa essere portata a tutte le aziende in un ambiente cloud ibrido senza precedenti.

Esplora i Foundation model in watsonx.ai

Applicazioni dell'intelligenza artificiale

Oggi esistono numerose applicazioni nel mondo reale per i sistemi di AI. Di seguito sono riportati alcuni dei casi d'uso più comuni:

riconoscimento vocale

Conosciuto anche come riconoscimento vocale automatico (ASR), riconoscimento vocale computerizzato o speech-to-text, il riconoscimento vocale utilizza l'NLP per elaborare il linguaggio umano in formato scritto. Molti dispositivi mobili incorporano il riconoscimento vocale nei loro sistemi per eseguire ricerche vocali, come fa per esempio Siri, o fornire una maggiore accessibilità per l'invio di messaggi di testo in inglese o in molte lingue ampiamente utilizzate. Scopri come Don Johnston ha utilizzato IBM Watson Text to Speech per migliorare l'accessibilità in classe con il nostro case study.

Servizio clienti

Gli  agenti virtuali online e i chatbot stanno sostituendo gli agenti umani nel percorso del cliente. Rispondono alle domande frequenti (FAQ) su argomenti come le spedizioni o forniscono consigli personalizzati, cross-selling di prodotti o suggeriscono le taglie agli utenti, cambiando il modo di concepire il coinvolgimento dei clienti su siti web e sulle piattaforme dei social media. Tra gli esempi vi sono i bot di messaggistica sui siti di e-commerce con agenti virtuali, le app di messaggistica, come Slack e Facebook Messenger, e le attività solitamente svolte da assistenti virtuali e assistenti vocaliScopri come Autodesk Inc. ha utilizzato IBM watsonx Assistant per accelerare del 99% i tempi di risposta dei clienti con il nostro case study.

Computer vision

Questa tecnologia di AI consente ai computer e ai sistemi di ricavare informazioni significative da immagini digitali, video e altri input visivi e, sulla base di tali input, di agire. Questa capacità di fornire consigli la distingue dalle attività di riconoscimento delle immagini. Grazie alle reti neurali convoluzionali, la computer vision trova applicazione nel tagging delle foto nei social media, nell'imaging radiologico nel settore sanitario e nelle auto a guida autonoma nel settore automobilistico. Scopri come ProMare ha utilizzato IBM Maximo per impostare un nuovo corso per la ricerca oceanica con il nostro case study.

Supply chain

La robotica adattiva agisce sulle informazioni dei dispositivi Internet of Things (IoT) e sui dati strutturati e non strutturati per prendere decisioni autonome. Gli strumenti di NLP sono in grado di comprendere il linguaggio umano e di reagire a ciò che gli viene detto. L'analytics predittivo viene applicato alla reattività della domanda, all'ottimizzazione dell'inventario e della rete, alla manutenzione preventiva e alla produzione digitale. Gli algoritmi di ricerca e di riconoscimento dei modelli (che non sono più solo predittivi, ma anche gerarchici) analizzano i dati in tempo reale, aiutando le supply chain a reagire all'intelligenza aumentata generata dalle macchine, fornendo al contempo una visibilità e una trasparenza immediate. Scopri come Hendrickson ha utilizzato IBM Sterling per alimentare le transazioni in tempo reale con il nostro case study.

Previsioni meteo

I modelli meteorologici su cui le emittenti si basano per fare previsioni accurate sono costituiti da algoritmi complessi eseguiti su supercomputer. Le tecniche di machine learning migliorano questi modelli, rendendoli più applicabili e precisi. Scopri con il nostro case study come Emnotion ha utilizzato IBM Cloud per permettere alle aziende sensibili alle intemperie di prendere decisioni più proattive e basate sui dati.

Rilevamento delle anomalie

I modelli AI possono vagliare grandi quantità di dati e rilevare punti dati atipici all'interno di un set di dati. Queste anomalie possono aumentare la consapevolezza su apparecchiature difettose, errori umani o violazioni della sicurezza. Scopri come Netox ha utilizzato IBM QRadar per proteggere le aziende digitali dalle minacce informatiche con il nostro case study.

Storia dell'intelligenza artificiale: date e nomi chiave

L'idea di una "macchina che pensa" risale all'antica Grecia. Ma dall'avvento dell'informatica elettronica (e relativamente ad alcuni degli argomenti trattati in questo articolo), gli eventi chiave nell'evoluzione dell'intelligenza artificiale sono i seguenti:

  • 1950: Alan Turing pubblica Computing Machinery and Intelligence (il collegamento risiede al di fuori di Iberia)In questo articolo, Turing, famoso per aver decifrato il codice tedesco ENIGMA durante la seconda guerra mondiale e spesso definito il " padre dell'informatica ", pone la seguente domanda: " Le macchine possono pensare? "  Da lì, offre un test, ora noto come "Test di Turing", in cui un interrogatore umano cerca di distinguere una risposta testuale umana da quella del computer. Sebbene questo test sia stato sottoposto a molti controlli dopo la sua pubblicazione, rimane una parte importante della storia dell'AI, nonché un concetto attuale nel campo della filosofia, in quanto si avvale delle teorie della linguistica.
  • 1956: John McCarthy conia il termine "intelligenza artificiale" in occasione della prima conferenza sull’AI al Dartmouth College (McCarthy avrebbe successivamente inventato il linguaggio LISP). Più tardi, nello stesso anno, Allen Newell, JC Shaw e Herbert Simon creano Logic Theorist, il primo programma di intelligenza artificiale funzionante.
  • 1967: Frank Rosenblatt costruisce il Mark 1 Perceptron, il primo computer basato su una rete neurale che "impara" per tentativi ed errori.Appena un anno dopo, Marvin Minsky e Seymour Papert pubblicano un libro intitolato Perceptrons, che diventa sia l'opera fondamentale sulle reti neurali sia, almeno per un po', un argomento contro i futuri progetti di ricerca sulle reti neurali.
  • Anni '80: le reti neurali che utilizzano un algoritmo di backpropagation per addestrarsi diventano ampiamente utilizzate nelle applicazioni di intelligenza artificiale.
  • 1995: Stuart Russell e Peter Norvig pubblicano Artificial Intelligence: A Modern Approach (link esterno a ibm.com), che diventa uno dei principali manuali nello studio dell'AI. In esso si approfondiscono quattro potenziali obiettivi o definizioni di AI, che differenziano i sistemi informatici sulla base della razionalità e del pensiero rispetto all'azione:

  • 1997: IBM Deep Blue batte l'allora campione del mondo di scacchi Garry Kasparov, in una partita a scacchi (e rivincita).

  • 2004: John McCarthy scrive un articolo, What Is Artificial Intelligence? (link esterno a ibm.com) e propone una definizione di AI spesso citata.
  • 2011: IBM watson batte i campioni Ken Jennings e Brad Rutter a Jeopardy!
  • 2015: il supercomputer Minwa di Baidu utilizza un tipo speciale di rete neurale profonda, chiamata rete neurale convolutiva, per identificare e categorizzare le immagini con un tasso di accuratezza superiore alla media umana.
  • 2016: il programma AlphaGo di DeepMind, alimentato da una rete neurale profonda, batte Lee Sodol, il campione del mondo di Go, in un incontro di cinque partite.La vittoria è significativa se si considera l'enorme numero di mosse possibili nel corso del gioco (oltre 14,5 trilioni dopo solo quattro mosse!). Successivamente, Google ha acquistato DeepMind per una cifra stimata di 400 milioni di dollari.
  • 2023: l'aumento dei modelli di linguaggio di grandi dimensioni, o LLM, come ChatGPT, crea un
    enorme cambiamento nelle prestazioni dell’AI e nel suo potenziale di generare valore aziendale. Con queste nuove pratiche di AI generativa, è possibile pre-addestrare i modelli di apprendimento profondo su grandi quantità di dati non elaborati e non etichettati.

 

Soluzioni correlate
Soluzioni di intelligenza artificiale (IA)

Metti l'AI al servizio della tua azienda con l'esperienza leader di settore e il portfolio di soluzioni di IBM nel campo dell'AI.

Esplora le soluzioni AI
Servizi AI

Reinventa i flussi di lavoro e le operazioni critiche aggiungendo l'AI per massimizzare le esperienze, il processo decisionale in tempo reale e il valore di business.

Esplora i servizi AI
AI per la cybersecurity

L'AI sta cambiando lo scenario della sicurezza informatica attraverso l'analisi di enormi quantità di dati di rischio per accelerare i tempi di risposta e migliorare le operazioni di sicurezza utilizzando meno risorse.

Esplora l'AI per la sicurezza informatica
Risorse Come scegliere il giusto foundation model di AI

Impara a utilizzare il framework di selezione dei modelli per scegliere il foundation model adatto alle tue esigenze aziendali.

Risparmia fino al 70% con il nostro abbonamento all'apprendimento digitale

Accedi al nostro catalogo completo di oltre 100 corsi online acquistando oggi stesso un abbonamento all'apprendimento digitale individuale o multiutente che ti consentirà di ampliare le tue competenze su una gamma di prodotti a un prezzo contenuto.

Gartner Peer Insights Customers' Choice 2023

IBM watsonx Assistant è stato riconosciuto come Customers' Choice nel report Gartner Peer Insights Voice of the Customer 2023 nella categoria Enterprise Conversational AI platforms

Strategia di approvvigionamento potenziata dall'AI

Scopri come il machine learning può prevedere la domanda e ridurre i costi.

Fai il passo successivo

Addestra, convalida, adatta e implementa le funzionalità di AI generativa, foundation model e machine learning con IBM watsonx.ai, uno studio aziendale di nuova generazione per builder AI. Crea applicazioni AI in tempi ridotti e una minima quantità di dati.

Esplora watsonx.ai Prenota una demo live