Ragionare nell’era dell’Intelligenza Artificiale

13.3.2025

Di Alessandro Mirani

Ultimamente, sento spesso persone chiedersi: "L'Intelligenza Artificiale sostituirà il mio lavoro?" Forse anche tu hai avuto questo pensiero. Più che una questione legata al mercato del lavoro o all’adeguatezza dei salari, questa domanda mette in discussione il nostro ruolo nella società e la nostra capacità di rimanere rilevanti nel tempo.

Vale la pena affrontare questo dubbio una volta per tutte, soprattutto perché è una preoccupazione condivisa da molti. Per questo motivo, ho scritto questo breve saggio: spero che le mie riflessioni possano aiutare chiunque ne abbia bisogno a riconoscere le opportunità positive che il futuro riserva.

Attraverso quattro sezioni, analizzeremo insieme:

  1. Una panoramica teorica sulle capacità e i limiti dell’Intelligenza Artificiale.
  2. Un’analisi pratica delle sue reali applicazioni e dei suoi confini.
  3. Le conclusioni e le riflessioni personali che possiamo trarre da questo scenario.
  4. Suggerimenti chiave su come sfruttare al meglio l’Intelligenza Artificiale (AI).

Parte 1 - Una premessa teorica

Nel lontano 2019, alcuni già riconoscevano l’esistenza di una "lunga storia di fallimenti nel raggiungimento dell’Intelligenza Generale nell’Intelligenza Artificiale" [1], una sfida tuttora irrisolta. Questo è dovuto principalmente alla natura sfuggente della definizione stessa di intelligenza, così come a quella di ragionamento.
A tal proposito, Yu e altri hanno osservato: "Sebbene il ragionamento abbia attirato una crescente attenzione […], manca ancora una definizione chiara e univoca di cosa esso sia" [3].

Dopo il 2023, siamo entrati nell’era “Post-ChatGPT” [2]. Ma questo ci ha davvero fornito un’idea più chiara di cosa sia l’intelligenza?

La si potrebbe definire come la capacità di “realizzare un obiettivo” [1], mentre il ragionamento potrebbe essere descritto come “l’utilizzo di prove e logica per giungere a conclusioni” [3].

Pur non essendo definizioni perfette, ci permettono di abbracciare un’ampia gamma dei nostri processi cognitivi, offrendo un punto di partenza per comprendere meglio l’Intelligenza Artificiale e i suoi limiti.

Prendiamo in esame tre tipi di ragionamento che rientrano nella definizione appena data:

  • Ragionamento induttivo: consiste nell’estrapolare una regola generale a partire da casi specifici. La sua affidabilità dipende dalla solidità delle premesse.
  • Ragionamento deduttivo: permette di arrivare a una conclusione specifica partendo da una regola generale. È sempre affidabile, a condizione che le premesse siano corrette.
  • Ragionamento abduttivo: porta a una conclusione generale a partire da una regola generale, ma il suo esito è sempre incerto.

Mentre gli esseri umani sono in grado di utilizzare tutti e tre i tipi di ragionamento, i tentativi di addestrare modelli linguistici di grandi dimensioni e macchine linguistiche pre-addestrate dimostrano che questi sistemi "si basano ancora fortemente sullo sforzo umano" [4] per giungere a conclusioni simili a quelle umane.

Per far sì che le macchine seguano il ragionamento deduttivo, è necessario abilitarle a “generalizzare da ciò che sanno per fare previsioni in nuovi contesti” [5]. Questo rappresenta una delle sfide più complesse nell’evoluzione dell’Intelligenza Artificiale.

Possiamo ipotizzare che, in futuro, sarà possibile ottenere risultati significativi combinando l’Intelligenza Artificiale con il calcolo quantistico [6] o con il cosiddetto "calcolo quantistico ibrido" [7], ovvero l’integrazione del calcolo quantistico con algoritmi classici [7]. Questa combinazione potrebbe rappresentare l’evoluzione delle future architetture computazionali.

Tuttavia, le previsioni degli esperti sulla tempistica di sviluppo del calcolo quantistico rimangono caute, soprattutto in settori critici come la cybersicurezza [9]. In generale, possiamo affermare che, "nonostante i progressi, diverse sfide fondamentali continuano a ostacolare l'adozione su larga scala del calcolo quantistico".

La ricerca e le opinioni degli esperti suggeriscono che la semplice realizzazione di un computer quantistico non sarà sufficiente a superare tutte le limitazioni dei processori attuali. Infatti, “i computer quantistici che possono facilmente eseguire anche le simulazioni più complesse […] potrebbero non fornire alcuna velocità in attività semplici come la navigazione quotidiana in Internet” [10].

Attualmente, l’impiego di modelli linguistici come BERT ha dimostrato che siamo in grado di imitare il ragionamento induttivo solo in determinate circostanze empiriche [5]. Tuttavia, l’incapacità di ottenere progressi significativi in altri ambiti logici, al di fuori della logica deduttiva, non è semplicemente una questione di sviluppo tecnico.

Gli studi indicano che, per sviluppare un’Intelligenza Artificiale capace di imitare più fedelmente il ragionamento umano, sarà necessario integrare nella ricerca tecnologica elementi di teorie psicologiche [5] e filosofia [4].

Questi elementi, insieme alla crescente discussione sull’idea che l’intelligenza possa essere ridotta a una singola capacità, mettono in dubbio le definizioni tradizionali del concetto stesso [11].

Possiamo dunque affermare che, per creare una macchina in grado di pensare come un essere umano, dobbiamo prima superare una serie di ostacoli tecnici e culturali. La vera sfida non risiede solo nella capacità di tradurre il ragionamento umano in un processo ripetibile, ma soprattutto nella nostra comprensione stessa di come ragioniamo.

Parte 2 - Una spiegazione pratica

Nella sezione precedente abbiamo descritto alcuni tipi di ragionamento, ma ve ne sono altri che potrebbero essere aggiunti all’elenco, come il pensiero laterale [11] e altre forme di elaborazione cognitiva [12].

Riprendendo le definizioni di intelligenza come la capacità di “realizzare un obiettivo” [1] e di ragionamento come “l’uso di prove e logica per giungere a conclusioni” [3], emerge subito che esistono due ambiti non coperti:

  • Le attività intelligenti non orientate a un obiettivo, come la creatività pura o la riflessione senza uno scopo preciso.
  • I ragionamenti basati sul senso comune, che non si affidano esclusivamente a prove formali, ma a intuizioni e conoscenze implicite [3].

Questi aspetti rappresentano ulteriori sfide per la costruzione di un’Intelligenza Artificiale realmente vicina al pensiero umano.

Facciamo un semplice esempio empirico di come le tre logiche esaminate nella sezione precedente verrebbero applicate senza il “senso comune”:

“Adoro Milano quando piove e le strade sono bagnate. Persino ora, d’estate, vorrei provare quella sensazione. Che cosa dovrei fare?”

  • Logica laterale → Controlla il meteo e torna quando piove.
    (Soluzione pratica e diretta, basata sull’osservazione della realtà.)
  • Logica induttiva → Anche se non puoi sapere esattamente quando, prima o poi pioverà, poiché è un evento statisticamente possibile. Se accetti l’incertezza, dovresti controllare il meteo ogni ora o ogni giorno, finché non piove.
    (Soluzione basata su probabilità e osservazioni pregresse.)
  • Logica deduttiva → Se Milano non è bagnata come quando piove, allora non puoi amarla. Per risolvere il problema, bisogna bagnare le strade di Milano.
    (Soluzione rigorosa ma priva di buon senso, poiché applica rigidamente una premessa senza considerare la fattibilità.)

Questo esempio dimostra come, senza il senso comune, il ragionamento può produrre soluzioni che, pur logiche, non sono necessariamente pratiche o realistiche.

Se chiedessimo all’AI la soluzione allo stesso problema, probabilmente otterremmo qualcosa del genere:

“Se vuoi ricreare quella sensazione delle strade bagnate di Milano, ecco alcune idee che potrebbero aiutarti a evocare l'atmosfera che ami:”

  • Visitare le aree con giochi d'acqua.
  • Pulire le strade al mattino presto per simulare l’umidità.
  • Creare un’atmosfera personale, magari con luci e suoni adatti.
  • Andare in una zona con elevata umidità.
  • Ascoltare i suoni della pioggia tramite registrazioni.

L’AI, quindi, suggerirebbe soluzioni creative che, pur non basandosi strettamente sulla logica tradizionale, adottano un approccio più fluido e pratico, cercando di soddisfare il desiderio di un'esperienza sensoriale piuttosto che attenersi a un’analisi puramente logica o deduttiva. Tuttavia, la soluzione dell'AI assomiglia molto a quella deduttiva, non è vero?

Non si può sfuggire alla premessa che non stia piovendo, quindi dobbiamo trovare un modo diverso per bagnare Milano, magari l'intera città, per massimizzare le probabilità di ottenere il risultato desiderato.

Anche se allenassimo la nostra AI a fornire una risposta più realistica, suggerendo una soluzione attraverso la formulazione della domanda, staremmo sostanzialmente spingendo il modello a imitare una logica induttiva o naturale.

Questo accade perché il ragionamento deduttivo è valido solo in base alla solidità delle premesse. Se una intelligenza artificiale non ha accesso a un contesto informativo sufficiente, non sarà vincolata dai limiti di ciò che è probabile o ragionevole, ma potrebbe arrivare a conclusioni che, pur assurde, sono coerenti con le informazioni disponibili.

Al momento, i modelli linguistici (LLM) non interagiscono direttamente con il mondo [4], il che limita l’efficacia della loro logica deduttiva e li rende incapaci di attuare una logica induttiva, per non parlare della logica laterale, in modo costante e autonomo.

Inoltre, nessuna di queste tre logiche riuscirebbe comunque a imitare davvero il “senso comune”, che probabilmente ci suggerirebbe l’unica risposta sensata al quesito: “Forse dovresti trasferirti a Londra” (con una punta di ironia).

Mentre l'AI si addestra per comprendere meglio le nostre necessità, anche noi potremmo allenarci a riconoscere il distacco dalla realtà che spesso caratterizza le risposte ricevute, imparando a ritrovare qualcosa di autentico in quel distacco.

Parte 3 - La mia conclusione

Nella sezione precedente, abbiamo analizzato gli ostacoli che l’AI dovrà superare nei prossimi anni per migliorare significativamente le sue capacità di ragionamento, con l’obiettivo di diventare un’alternativa utile in ambiti scientifici […, 8, 9, 10]. Abbiamo anche esaminato un esempio concreto che evidenzia i limiti dei modelli di linguaggio attuali (LLM) nel gestire compiti di ragionamento complesso e le conseguenze della loro incapacità di riconoscere situazioni "assurde" o prive di “senso comune”.

Inoltre, abbiamo notato che esistono diversi tipi di intelligenza. Arjonilla e Kobayashi affermano che l’evoluzione è un processo di casualità e selezione, tanto intelligente quanto semplice: “Questa semplicità è in gran parte spiegata dalla mancanza di modelli, che non impedisce all’evoluzione di raggiungere obiettivi complessi” [1].

Sappiamo anche che l’assenza di una modellizzazione rigorosa e l’inefficienza non hanno impedito alla vita di evolversi e affrontare la scarsità di risorse; al contrario, questi fattori hanno contribuito al suo sviluppo.

Possiamo quindi ipotizzare che lo sviluppo dell’intelligenza artificiale e quello della nostra specie seguano percorsi differenti: da un lato, noi cerchiamo di definire e approfondire il concetto di intelligenza, esplorandone vari aspetti; dall’altro, il progresso dell’AI, così come lo abbiamo strutturato, tende a ottimizzare solo i sottoinsiemi di intelligenza che siamo riusciti a definire e comprendere.

Resterà sempre un divario da colmare tra la nostra intelligenza e una sua versione più efficiente; per ridurre questo divario, dovremo evolverci ulteriormente, incrementando la quantità di intelligenza e ragionamenti che possiamo rendere efficienti, in un ciclo che probabilmente sarà infinito e paradossale.

Forse, un giorno, l’AI potrà assisterci o sostituirci in tutte quelle attività che oggi risultano ripetitive e scontate. Lo scopo sarà darci più tempo per migliorare gli aspetti meno scontati delle mansioni che svolgiamo.

In futuro, il nostro lavoro diventerà così complesso che l’AI, come la conosciamo ora, sarà solo uno strumento in un sistema più ampio e articolato.

Dunque, per tornare al quesito iniziale: l’AI sostituirà il nostro lavoro?

Non possiamo sapere se, in futuro, useremo vari algoritmi insieme, come oggi usiamo strumenti diversi per compiti diversi. Però, a mio avviso, vedere questo processo di delega delle attività ripetitive alle macchine come una minaccia al nostro posto nel mondo è spesso il risultato della nostra tendenza a immaginare scenari drammatici e apocalittici, dove tutto ha un’aria di giustizia finale [13].

Come l’AI commette errori applicando strategie di ragionamento troppo semplicistiche a realtà complesse, anche noi siamo spesso vittime delle nostre fallacie logiche.

Per esempio, "Se sviluppiamo l'IA, automatizzerà sempre più lavori; se automatizzerà più lavori, controllerà ogni settore. Se controllerà ogni settore, gli esseri umani diventeranno dipendenti da essa. Dunque, l'IA ci sostituirà." Questo è un caso di "china scivolosa": si parte da una premessa iniziale e si assume che ogni passaggio della catena porti al successivo, senza considerare altre possibilità.

Un altro esempio è "Se l'IA sostituirà l'umanità, vedremo che prenderà sempre più posti di lavoro. L'IA sta già prendendo più posti di lavoro. Quindi, l'IA sostituirà l'umanità." Qui si cade nell’errore di "affermare il conseguente": si dichiara che il secondo elemento di una proposizione sia vero, e si conclude erroneamente che il primo elemento debba esserlo anch'esso.

La nostra tendenza ad accettare queste e altre fallacie logiche non solo ci allontana dalla vera comprensione dei fenomeni, ma rallenta anche il progresso della tecnologia e della società.

Ed è forse questo l’aspetto più profondo da comprendere, legato a quello che chiamiamo “senso comune”: la nostra capacità di vivere con le contraddizioni, che è a sua volta una forma di intelligenza.

Non dare per scontata questa nostra abilità ci rende più empatici, creando un ambiente più sano per noi stessi e per gli altri.

Spesso ciò che consideriamo un difetto nelle piccole cose – come l’impulso di agire contro il “senso comune” per dimostrare che possiamo sfidare una verità consolidata – è, in realtà, una dimostrazione di quanto possiamo andare oltre i limiti dei calcolatori, applicando intelligenza e ragionamento in modo complesso e non lineare.

Questo tipo di pensiero ci spinge a riflettere sulle persone che ci circondano in modo più positivo, permettendoci di apprezzare caratteristiche della loro personalità che, da una prospettiva di efficienza sociale, potrebbero essere scoraggiate.

In un certo senso, potremmo dire che siamo ora più orientati verso uno scopo di quanto non lo siamo mai stati. Ora che abbiamo iniziato a schematizzare alcune parti della nostra intelligenza, avremo più tempo per interrogarci su cos'altro ci rende umani, e questo è un pensiero incoraggiante.

Parte 4 - Consigli per sfruttare al meglio l'AI

Ora che abbiamo esplorato la relazione tra l'intelligenza artificiale e la nostra umanità, perché non allenarci a integrarla nella nostra vita quotidiana?

Per gli utenti di modelli linguistici (come ChatGPT, Google Bard, Copilot e altri), ci sono 4 semplici pratiche di Cyber Hygiene che trovo davvero utili per ottenere il massimo dall'AI, minimizzando al contempo i rischi:

  • Cerca spunti, non soluzioni: Una tela vuota con qualche guida non limita necessariamente la creatività dell'artista, ma facilita la costruzione di una base solida per il design. Allo stesso modo, l’intelligenza artificiale può offrirti spunti che potrai poi sviluppare e approfondire con il tuo processo di pensiero critico.
  • Dai contesto e segmenta le conversazioni in modo mirato: Non è necessario reinventare la ruota ogni volta, né per te né per l’AI. Alcune soluzioni e approcci sono già noti per essere più efficaci di altri. Fornire il giusto contesto e indirizzare la conversazione verso temi specifici ti aiuterà a ottenere risposte più precise e utili.
  • Indica all'AI quale quadro decisionale o riferimento dovrebbe seguire: Esistono infinite linee che passano attraverso un singolo punto, ma solo una può connetterne due. Se hai già chiaro il problema, perché non chiarire anche l’obiettivo? Definendo sia il punto di partenza che quello di arrivo, aiuterai l'AI a tracciare la linea retta tra di essi, semplificando così la ricerca della soluzione migliore.
  • Chiedi all’AI di spiegare e giustificare la sua posizione: I suggerimenti precedenti possono aiutarti a ottenere una risposta teoricamente ottimale, ma nella pratica potrebbero esserci dei distacchi dalla realtà. È utile chiedere all’AI di giustificare le sue scelte, così da individuare eventuali aree non coperte e decidere se la soluzione proposta rientra nei tuoi parametri di accettabilità.

In questo modo, possiamo approcciarci all'AI come a uno strumento che arricchisce il nostro pensiero e ci aiuta a ottenere risultati migliori, sempre tenendo sotto controllo i possibili limiti e distorsioni.

Fonti:

Articoli recenti

Logistica e Supply Chain: Tracciabilità in Tempo Reale, Gestione delle Scorte e Riduzione degli Sprechi

La Blockchain nei Pagamenti Digitali: Innovazione e Sfide

Formazione Industriale con Realtà Aumentata: Come l’XR Sta Cambiando il Settore

Minacce alla Sicurezza Informatica: Tipologie, Rischi e Difese

Internet of Things (IoT): Definizione, Applicazioni e Tecnologie

Intelligenza Artificiale: Comprendere la Realtà Oltre il Sensazionalismo

Extended Reality (XR): Che Cos'è la Realtà Estesa e le Sue Applicazioni

Cybersecurity e Sicurezza delle Informazioni: Proteggi i Tuoi Dati