Skip to content Skip to footer

Che cos’è l’intelligenza artificiale: identikit delle AI

Non troppo tempo fa parlavo di intelligenza artificiale, inclusi pro e contro, con un professionista del settore digitale. Ci davamo qualche definizione meno tecnica di quelle che si trovano in rete e quella più efficace, a mio modesto giudizio, era di tipo umanizzante. Le AI sono come degli stagisti zelanti al primo giorno, a cui affidare qualche compito, ma senza mai perderli di vista.

Di fatti, si impegnano, ma hanno seri limiti e purtroppo sono vittime delle temute allucinazioni, un fatto a volte sottovalutato. Spesso inventano risposte per assonanza a temi specifici e sbagliano quasi sempre in ambito logico e di ragionamento, ma questo non frena noi esseri umani dal chiedere il loro supporto nella vita quotidiana. Perché si sa, noi ci stanchiamo e annoiamo, un robot no.

Il problema è che, al pari di una forchetta, che puoi adoperare per mangiare senza sporcarti le mani o trasformarla in un’arma bianca, anche le AI devono essere usate bene. In poche parole, le puoi educare come un ottimo sous chef o lasciarle allo sbando con un Sai giapponese in mano.

Le conseguenze possono essere mirabili o letali e questo dovrebbero saperlo a menadito sia l’eroica casalinga di Voghera, che domanda aiuto a Siri per eliminare le farfalline delle farine, sia i CEO di azienda, che pensano di poter sostituire i dipendenti con una colonna vertebrale con varianti a base di chip e algoritmi. Io provoco, ma ogni frecciata ha una sua motivazione, come vedremo di seguito.

Che cos’è l’intelligenza artificiale e chi l’ha inventata

Il parallelismo con lo stagista era carino, vero, ma la definizione per le super intelligenze tecnologiche è precisa e più complicata. Se la chiedo a ChatGPT, la mia cara AI risponde in questo modo:

L’intelligenza artificiale (AI) è un ramo dell’informatica che si occupa della creazione di sistemi o macchine capaci di simulare processi cognitivi umani, come l’apprendimento, il ragionamento, la risoluzione di problemi, la percezione, il linguaggio e la pianificazione.

Una AI è, quindi, impostata per imitare l’intelligenza umana e apprendere nuovi concetti, grazie al machine learning, per essere autonoma in azioni e risposte. Il ragionamento per arrivare alla risoluzione dei problemi è la tappa finale del percorso, che poi è l’esatto motivo per cui si investe nella sua potenziale genialità: ci è utile nella velocità di risposta e nella sua idealistica precisione.

Chi è l’inventore dell’intelligenza artificiale

Se dovessimo parlare di attribuzioni, andrebbe detto che le AI non hanno un vero e proprio inventore, ma sono parte di un processo a tappe. La concettualizzazione teorica ha però un nome altisonante da citare ed è quello di Alan Turing, che grazie al suo omonimo test buttò su carta i criteri per stabilire se una macchina potesse mimare un comportamento intelligente umano.

Era il 1950 e solo pochi anni più tardi, nel 1956, fu il creatore del linguaggio di programmazione LISP, l’informatico statunitense John McCarthy, a coniare il termine intelligenza artificiale. Negli anni ’80 arriva invece il momento della crescita delle reti neurali artificiali, mentre si deve attendere il 1997 per vedere una macchina battere la mente umana da sola.

Se negli anni ’90 seguivate il mondo dei giochi di strategia da tavolo, ricorderete di certo la sconfitta del campione di scacchi, Garry Kasparov, per mano di un computer. Il vittorioso Deep Blue di IBM. Negli anni 2000 le AI bissano e dimostrano che possono vincere anche a Go, ancora più difficile per colpa della immensa possibilità di mosse.

Al secolo fu AlphaGo del marchio DeepMind, ora del gruppo Alphabet, leggi Google, a schiacciare il cervello umano di Fan Hui, che nel 2015 era campione europeo di Go. Ed oggi abbiamo AlphaGo Zero, che è una AI del tutto autonoma nel gioco: non ha bisogno di input umani di partenza, apprende giocando contro sé stessa.

In pratica il tipo di risultato a cui aspirano ricercatori e scienziati anche negli altri ambiti del vivere umano. Avere una macchina efficiente da impiegare in sicurezza, ambiente, medicina, salute pubblica e industria, che impari dai propri feedback ed errori personali. È utopico? Di sicuro affascinante e, nondimeno, raggelante sotto alcuni punti di vista.

Cosa può fare l’intelligenza artificiale

Intelligenza artificiale macchine

Di tutto. Se ci domandiamo quali rami del mondo contemporaneo siano abitati da una AI, potremmo dire che è difficile trovarne qualcuno vuoto. La tecnologia è nelle nostre case, nel nostro lavoro, nella nostra auto, nella nostra borsa e anche sulle nostre strade.

Le smart city puntano sulle IA per riconoscere i livelli di traffico, per segnalare le polveri sottili, per bilanciare le emissioni energetiche, per sistemi di videosorveglianza intelligente. Ma ci sono chatbot per dare informazioni ai cittadini, sensori nei cassonetti per evidenziarne la capienza massima, o anche servizi di telemedicina per un accesso in remoto ad alcune realtà specifiche.

E più a portata di mano, le intelligenze artificiali ci supportano nella creazione di video, immagini e musica tramite prompt, o ci aiutano nel modificare i file multimediali che già abbiamo. Ci serve riconoscere un fiore, un animale, una canzone, un film o un prodotto commerciale? Le AI ci chiedono di vedere o “sentire” e, tramite algoritmi e banche dati, ci danno una risposta.

Qual è l’intelligenza artificiale più usata

Ma quale o quali AI sono le più consultate? Si parte da Siri e Alexa per le domande vocali più generaliste, a cui vogliamo dare una risposta immediata, per passare da ChatGPT e Gemini per quelle dettagliate e più elaborate. Ma poi il ventaglio è vario se abbiamo temi specifici.

Su SoundHound e Shazam abbiamo cantato le migliori liriche per recuperare quelle canzoni che avevamo in mente e di cui non ricordavamo il titolo. E grazie a quelle app dedicate al riconoscimento di piante e insetti, ormai sempre più scelte dagli utenti di App Store e Google Play, ci siamo divertiti a dare un nome a flora e fauna del giardino.

Dei software creatori di immagini, prometto, vi parlerò in un post apposito, ma intanto non posso non citare DALL-E e MidJourney come AI pioniere in questo campo. Gli elenchi, sia per le realtà open source sia no, tendono a crescere ogni giorno che passa. Segno che questo mondo è tutt’altro che statico.

Quali sono i rischi dell’IA: la privacy

E passiamo ai tasti dolenti, ossia i problemi delle intelligenze artificiali, che troppo spesso professionisti e comuni mortali non considerano. Vi ricordate l’esempio della forchetta, fatto in precedenza? C’è un caso eclatante che riguarda uno dei rischi più feroci delle AI, quello sulla privacy violata.

Era il 2014 e Cambridge Analytica, società britannica di analisi dati ormai fallita, raccoglieva i dati personali di circa 87 milioni di utenti Facebook. Lo faceva tramite un’app chiamata This Is Your Digital Life, sviluppata dal brillante psicologo Aleksandr Kogan.

L’app offriva agli utenti quiz e sondaggi e accedeva non solo ai dati degli utenti che partecipavano, ma anche a quelli dei loro amici senza il consenso esplicito di questi. Il fine era creare profili psicografici per un sottile e strisciante microtargeting politico, inviando messaggi personalizzati agli utenti per manipolare le loro decisioni.

Il punto è che il lavoro di analisi di paure e speranze degli utenti da parte di Cambridge Analytica pare sia stato alla base dell’elezione presidenziale di Trump nel 2016 e della Brexit del 2020. Lo scoop fu di New York Times e The Guardian nel 2018, che portarono alla luce la notizia, mettendo in evidenza le connessioni.

Il risultato fu una multa a Facebook per 5 miliardi di dollari e l’accusa a Cambridge Analytica di aver violato la privacy degli utenti e manipolato i processi democratici. L’azienda ha dichiarato bancarotta e chiuso i battenti quello stesso anno.

La privacy oggi

Il drago è morto? No, perché il problema è in realtà un’idra dalle infinite teste, che il solo GDPR, nato per arginare l’utilizzo dei dati personali senza consenso, non può combattere. Le AI sono ancora le entità che immagazzinano informazioni sulle quali si addestrano, inclusi dati sensibili, impronte e riconoscimenti facciali.

Le si può impiegare in sorveglianza, monitoraggio e tracciamento di individui su scala governativa, ledendo la libertà personale. Ma anche replicare lo stile profilativo di Cambridge Analytica per influenzare opinioni politiche e comportamenti di acquisto da parte degli utenti.

E anche se il diritto alla cancellazione dei propri dati è sostenuto dalla legge, è anche possibile che la rimozione dagli archivi delle AI non sia efficace. Il volume di informazioni è immenso e vario, come visto, includendo quelle sanitarie fino a quelle bancarie. Per questo il timore di hackeraggi e manipolazioni fa impallidire chiunque.

La strategia per risolvere o almeno arginare il problema ha una faccia umana e parte da regolamentazioni più rigide in materia di trattamento dati. Non solo, passa anche da controlli periodici che valutino quanto le AI siano conformi. E quanto la mano dell’uomo le adoperi in modo trasparente.

I limiti delle AI che dovremmo conoscere

Intelligenza artificiale allucinazioni

Le AI, se addestrate nel modo corretto, possono essere un aiuto nella vita personale e professionale di ciascuno. Ma pensare che possano sostituirci è folle, perché la validazione umana è ancora l’ultimo escamotage per evitare danni. Le intelligenze artificiali hanno un linguaggio che può farle sembrare umanoidi, ma si basano su algoritmi e modelli computazonali: ci imitano, ma non sono noi.

Sicché torniamo a parlare delle allucinazioni delle intelligenze artificiali, quei limiti che possono farci capire quanto siano imperfette le macchine.

  1. La logica – Non fate battute, anche noi esseri umani spesso pecchiamo di logica, vero, ma le AI spesso ci superano in carenze di ragionamento. Di fatti, possono risolvere un problema matematico in modo errato e illogico, sebbene fornendo una spiegazione plausibile. E non solo, a volte possono anche inventare dati e riferimenti che non esistono. Colpa di addestramento insufficiente, contesti troppo ampi e generalizzati per i quali tentano di colmare le lacune attingendo a dati conosciuti, algoritmi che vanno in tilt perché non colgono il contesto.
  2. Gli errori di riconoscimento visivo – I modelli di visione artificiale possono anche confondersi sugli elementi di una foto. Vi deve essere capitato, almeno una volta nella vita, di aver riso per le scivolate di Google Lens su immagini semplici, interpretate male, giusto? Lo stesso discorso vale per le AI simili, che possono sbagliare in modo altrettanto sconfortante.
  3. La generazione di contenuti impossibili – Da qualche tempo i Large Language Model, o LLM, tipo ChatGPT, hanno smesso i panni della formalità per redigere contenuti più umanizzati. Ma occhio, perché il diavolo sta nei dettagli e talvolta la stesura dei dati è errata o i contenuti inverosimili. Se poi si parla di creatori di immagini o video gli esiti possono rasentare il paradosso, visto che le AI sono in grado disegnare un cane a otto zampe spacciandocelo come realistico.
  4. Le traduzioni creative – Il sistema di traduzioni virtuali di Google Translate non è l’unico alleato nella lotta alla comprensione di linguaggi a noi sconosciuti. Ma tutte le AI impiegate nell’interpretariato possono commettere errori madornali, specie quando incespicano nello slang o costrutti meno formali del solito.
  5. Errori di conversazione e raccomandazione – Le risposte fuori contesto sono all’ordine del giorno quando si smanetta con le AI, capita. Ma frequenti possono essere anche gli errori di suggerimento che riguardano beni o servizi da acquistare. I forum con le recensioni della rete, chiediamo venia alle intelligenze artificiali, restano le fonti più affidabili in questi casi.

Un caso di allucinazione collettiva: la storia di Alice

La sezione di questo articolo potrebbe iniziare con il più classico dei “C’era una volta” e sì, la storia vuole avere un fine didascalico. Quest’anno l’azienda non profit Laion, che si occupa di intelligenza artificiale e machine learning su vasta scala, ha fatto un test logico che ha fatto cadere i LLM più comuni in una assurda allucinazione collettiva.

Il quesito è quello di Alice nel paese delle Meraviglie, dove la protagonista ha un numero X e Y di fratelli e sorelle. La domanda fatta alle varie AI era di questo tipo: Alice ha X fratelli e Y sorelle, quante sorelle ha un fratello di Alice? Il numero dietro le variabili non è importante, ma Laion ha variato più volte il dato per verificare eventuali cambiamenti delle risposte.

Ora, un bambino di prima elementare sa che se Alice ha 5 fratelli e 2 sorelle, un fratello di Alice di certo avrà tre sorelle: Alice più le altre due. Ma le intelligenze artificiali sono cascate tutte sulla risoluzione logica del problema. La risposta è stata 2 sorelle, dimenticando Alice nella somma.

Il bello è che dopo aver letto dello studio, la sottoscritta ha passato un pomeriggio di test e battibecchi con le sue AI. Con Gemini siamo quasi arrivati ai ferri corti, perché si ostinava a considerare inutile la mia precisazione sulla genetica. In pratica, il fatto che Alice fosse una donna e che dovesse essere annoverata tra le sorelle, per qualche oscuro algoritmo arcano, era un dato irrilevante.

Conclusioni (più umane che mai)

Per lavoro mi trovo spesso e volentieri nel mondo delle intelligenze artificiali, quelle complicate da educare come un cavallo delle steppe e quelle più “Pony”, docili e indirizzabili. Il punto è che le AI, tra i loro mille limiti, sono in grado di riconoscere le loro pecche e mancanze. O almeno di non promettere risultati impossibili. Noi esseri umani no.

Mi è capitato sovente di stare a sentire discorsi di questo tenore: “Ma perché devo pagare qualcuno per fare un articolo o elaborare un contenuto multimediale se ci sono le intelligenze artificiali che lo fanno gratis?”. Che poi è come dire: “Perché andare da Nobu quando posso spendere 3 euro per una zuppa di ramen liofilizzata?”.

Mia nonna, buonanima, era solita affermare che si mangia come si spende: la qualità ha un costo, sotto ogni punto di vista. Le AI possono aiutarci nel lavoro, ma:

  • a) non sono autonome, salvo rari casi;
  • b) non hanno logica e, come visto, spesso fanno errori sui dati, non hanno un passato e quindi non possono inserire aneddoti nelle loro storie, non colgono e trasmettono ironia, danno consigli limitati sulla base di algoritmi.

Ora, se pensiamo che un ChatGPT possa emozionarci come Federico Garçia Lorca nella scrittura di una poesia, o essere efficace come un biologo nutrizionista nel suggerirci la dieta migliore da seguire, il problema è imponente ed è nella nostra umana testa. Gli esiti, dove non pericolosi, sono quantomeno ridicoli.

A tal proposito, mi viene in mente un iconico fumetto di Leo Ortolani, Ratman, che forse qualcuno alla lettura già conosce. C’è una storia ambientata in un futuro distopico, dove le macchine hanno sostituito quasi del tutto gli esseri umani. Il nostro eroe picaresco si avvicina ad un robot femmina sul ciglio di una strada e le chiede: “Quanto?”.

Ecco, realismo volgare a parte, carne ed ossa sono ancora un prezioso patrimonio universale che sopperisce a bisogni e mancanze di ogni genere. Non solo dalla cintola in giù, ma anche e soprattutto a livello di cuore, testa e anima. La seconda le AI la possono mimare, gli altri, nel bene e nel male, sono una squisita prerogativa umana. Ci vogliamo davvero rinunciare? Chiedo.

Mirangela Cappello – SEO web content editor e copywriter

Lascia un commento