|
|
|
|
L’ intelligenza artificiale di fronte al caso particolare |
|
|
Inserito il 28 agosto 2023 da admin. - professione - segnala a:
Si discute vivamente dell’ utilizzo dell’ Intelligenza Artificiale, sulla sua utilita’ e come possa potenzialmente sostituire l’ essere umano nelle attivita’ quotidiane e lavorative. Ma puo’ veramente e interamente farlo, senza rischi?
Le cronache ci informano di vari e diversi episodi in proposito: pubblicazioni scientifiche, tesi di laura, esposti in tribunale creati con l'IA e spacciati come prodotti "umani". Con risultati alterni. Rendiamoci conto che i casi di uso truffaldino dell’ IA sono stati scoperti a causa del loro fallimento, probabilmente ce ne sono innumerevoli che invece non sono stati scoperti.
Viene percio’ anche da chiedersi il motivo di questi altalenanti risultati. Il problema puo’ essere dovuto al fatto che l’essere umano NON usa sempre la stessa tecnica di ragionamento, mentre (almeno finora) l’IA non ha la stessa elasticita’.
Ne abbiamo parlato in passato esaminando in dettaglio la differenza tra il “ragionamento lineare” e il “ragionamento acrobatico.
L’ esempio illuminante fu quello del “tassista napoletano”:
Una persona proveniente da Rotterdam, ottimo autista, rispettoso delle regole e dei regolamenti, si trova a dover essere trasportato da un taxi a Napoli, vivendo un' esperienza per lui allucinante: disagio, preoccupazione, momenti di puro terrore. Il problema si evidenzia soprattutto agli incroci, dove attende ogni volta l’ incidente. Eppure questo passeggero arriva alla sua meta sano e salvo e si puo’ rendere conto, guardando qualche statistica, che gli incidenti gravi nel napoletano sono percentualmente inferiori a quelli avvenuti nella sua ordinatissima citta’ del nord. Come mai?
Meditando, il passeggero si rende conto che la guida del taxi si basa su due diverse modalita’ cognitive: L’autista tipico del nord e’ rispettoso delle regole e ritiene inconsciamente che anche gli altri facciano lo stesso. Per questo motivo agli incroci, quando sa di avere precedenza, li attraversa applicando letteralmente il codice della strada: "Io ho la precedenza, chi viene dalle traverse sa di dovermi dare la precedenza, io passo tranquillo perche’ tutti mi daranno la precedenza". Salvo incidente quando qualcuno non segue le regole.
L’autista napoletano opera una la strategia diversa: non si fida e sa che non puo’ dare per scontato un comportamento generale rispettoso delle norme del traffico. Percio’ preferisce mettere sempre in discussione tutto, volta per volta, sia quando deve dare la precedenza che quando sono gli altri a doverla dare: "Si, e' vero che qui dovrebbe funzionare cosi’, ma e’ proprio necessario o sarebbe piu’ utile fare diversamente?".
Comincia cosi’ una sorta di schermaglia: i conducenti si guardano, si mandano segnali misteriosi ma comprensibili dall’ altro, indipendentemente da chi abbia il semaforo verde o rosso. Attraverso una sorta di dialogo visivo e una danza ben conosciuta, i due autisti operano una sorta di negoziazione sociale e capiscono chi deve passare e chi deve aspettare.
Questo esempio mette in evidenza due tipologie diverse di ragionamento: Il primo segue una norma generale e la applica, l’altro si orienta invece caso per caso. Pur presumendo che entrambi gli autisti conoscano il codice della strada, il primo lo applica costantemente, il secondo preferisce eludere la norma generale per cercare un accordo a livello locale in rapporto alle diverse situazioni. L’ autista napoletano non da’ per scontato che la regola generale possa applicarsi in tutti i casi, ma talvolta e’ piu’ utile violarla.
A livello cognitivo, l’automobilista “ligio alle regole” segue una forma di ragionamento che i logici chiamano sinteticamente "se P allora Q": tutte lo volte che compare "P" cioe’ (ad esempio un semaforo rosso) bisogna attenersi al comportamento "Q" (fermarsi). La visione del mondo che tale argomentazione implica e’ abbastanza limpida, lineare, e dal punto di vista formale non fa una piega. Il secondo sistema mette in dubbio l’ assioma iniziale. Sembra dire "Non e’ sicuro che tutti i casi rientrino nella regola generale, potrebbe fare eccezione”. Dato che non esiste la sicurezza del "Se P allora Q" l’unica cosa che rimane da fare e’ regolarsi in base al contesto, in modo non piu’ semplice e diadico, ma complesso perche’ dipende dalle circostanze contestuali e dalla decifrazione delle intenzioni altrui. Vengono cosi’ utilizzati altri elementi, non precisi come prima: la regola, il contesto, i possibili interferenti e la loro interpretazione.
Uno dei problemi del ragionamento di primo tipo e’ quello che i termini vanno definiti conassoluta precisione, mentre sappiamo che la variabilita’ del mondo non favorisce questo atteggiamento: pensiamo, ad esempio, alla parola “libro”: un libro viene definito in un certo modo nel dizionario, su questa definizione viene costruita l’immagine mentale di un libro a cui paragonare l’oggetto che noi vediamo in quel momento che pero’ potrebbe apparire non corrispondente a tale definizione.
Infatti sappiamo bene che ci sono forme di libri che, per forma o costituzione potrebbero non essere pienamente rispondenti all’ immagine mentale “classica”. Queste differenze possono essere colmate (come comunemente facciamo) dalla esperienza e dalla tolleranza all’ ambiguita’ per cui sovrapponiamo al prototipo ricavato dal dizionario una serie di immagini sovrapposte che corrispondono comunque a "libro".
Questo processo di ricostruzione si fonda su un ragionamento di tipo "acrobatico" (quello di secondo tipo, innato in tutti gli esseri umani) che sa che "ogni eccezione conferma la regola" per cui ogni regola contiene delle violazioni con le quali occorre venire a patti.
La nostra, quindi, e’ “una regola quasi regola”, che ammette contraddizioni, eccezioni, violazioni. Anche regole apparentemente basilari e inviolabili (ad esempio “non uccidere”) ammettono eccezioni (legittima difesa, difesa della Patria ecc.) E’ fondamentale, percio’, imparare ad utilizzare il ragionamento “acrobatico”, piu’ adeguato alla realta’ dei fatti.
E L’INTELLIGENZA ARTIFICIALE? E’ molto improbabile che l’ Intelligenza Artificiale possa adeguarsi alla variabilita’ richiesta dal “ragionamento acrobatico”.
Come e’ stato esaurientemente spiegato anche in altri articoli di questa testata, le reti neurali artificiali basano i loro processi su uno sterminato database, una incredibile velocita’ di elaborazione, e sul rispetto dei famosi “algoritmi”. Gli algoritmi, come è noto sono costituiti da uno specifico insieme di regole che consentono di risolvere problemi specifici. Operano in modo rigido, inderogabile, e non sono in grado di prevedere tutte le possibili variazioni dei dati che possono interagire fra loro.
Bastano poche variabili (inevitabili nell’ agire umano) per generare migliaia di possibili interferenze, tali ta poter talvolta superare le capacita’ elaborative della miglio Intelligenza Artificiale. Forse questa considerazione puo’ spiegare alcuni clamorosi errori o fallimenti delle procure basate sull’ IA. Infatti alcuni ricercatori hanno sottolineato come un meccanismo basato su rigidi algoritmi manchi il comunissimo “Buon Senso”.
IL PROBLEMA DEL BUON SENSO Il termine e’ assai difficile da definire: generalmente si intende “ la normale intelligenza delle cose umane, comune ad ogni individuo equilibrato”. Si tratta di un particolare “sapere implicito” conseguito da esperienze, ricordi ed emozioni registrate negli anni, personalmente o attraverso l’ ambiente familiare o sociale. Gli studiosi di IA spesso negano che esisita il problema della mancanza di buon senso, tuttavia e’ apparsa molto significativa la presa di posizione pubblica di Ray Mooney, direttore dell’ Artificial intelligence Laboratory del Texas, che mise alla prova un decantato ed evoluto sistema di intelligenza artificiale con questo semplice indovinello: “Un uomo va in un ristorante. Ordina una bistecca. Lascia una generosa mancia. Cosa ha mangiato quell'uomo?” Una persona comune lo avrebbe guardato attonito, e avrebbe risposto banalmente “una bistecca”. Una persona particolarmente attenta avrebbe magari specificato “probabilmente una bistecca” L’ IA non riusci’ a rispondere in quanto mancante, nel suo pur sterminato database, dell’ informazione esplicita sull’ argomento. Informazione che un medio essere umano e’ in grado di ricavare dal “senso” della domanda.
Dobbiamo riconoscere che dal punto di vista puramente sintattico e’ l’ uomo medio a sbagliare, azzardando ipotesi non provate, tuttavia e’ molto chiaro che l’ IA avra’ bisogno ancora per molto tempo di supervisione umana che sappia ovviare, con buon senso e “ragionamento acrobatico” alle lacune che imprevedibilmente possono presentarsi.
Hal 9000 avra’ bisogno di controllo umano, ancora per molto tempo!
Daniele Zamperini
Fonti: -Psicologia contemporanea, 157, 2000 -https://zamperini.tripod.com/Pillole-400.htm -Collecchia G. De Gobbi R.: Intelligenza Artificiale e Medicina Digitale. Una guida critica. Il Pensiero Scientifico Ed. Roma 2020
|
|
|
Letto : 67336 | Torna indietro | | |
|
|
|
|
|
|
|
|