vai alla home introduttiva di Pillole.org
 
  Pillole 
   
 
Iscritti
Utenti: 2337
Ultimo iscritto: Antarctica
Iscritti | ISCRIVITI
 
NESSUN CONTROLLO IN USA SULLE INTELLIGENZE ARTIFICIALI
Inserito il 14 settembre 2025 da admin. - Medicina digitale - segnala a: facebook  Stampa la Pillola  Stampa la Pillola in pdf  Informa un amico  

( ED IN ITALIA?)

Un recente editoriale del Jama(1), firmato da Sandro Galea, eccellente epidemiologo di origine italiana, preside della Washington University School of Public Health, affronta il tema della rapida diffusione dell’intelligenza artificiale (IA) in tutti i settori, inclusa la sanità, a fronte di una regolazione ancora inadeguata(1). Ne riassumiamo qui i concetti fondamentali, mentre nelle prossime pillole illustreremo la legislazione europea, lodata ripetutamente dal prof. Galea nell’editoriale e “quasi ignorata” dalla stampa italiana ed in particolare dai partiti politici …

Ecco una sintesi dell’Editoriale:
Negli ultimi anni si è verificato un cambiamento repentino solo in minima parte identificato e compreso nelle sue innumerevoli ricadute : l’arrivo di ChatGPT nel 2022 ha reso l’IA di massa, accelerando l’adozione di strumenti algoritmici in tutti i campi ed in particolare in medicina e salute pubblica.
Questo radicale cambiamento ha creato un “Gap Normativo”: nonostante alcuni interventi, come le regole del CMS-Medicare (2024) che impongono la supervisione umana nelle decisioni cliniche, l’evoluzione della tecnologia ha superato di molto la capacità dei regolatori di adattarsi.
Scenario politico statunitense: Il prof. Galea osserva che la seconda presidenza Trump ha prodotto instabilità normativa, continui cambiamenti di rotta e tagli al personale delle agenzie federali. Questo ha ulteriormente indebolito la capacità di FDA, CMS e CDC di creare “guardrails” per un uso sicuro dell’IA.

Conseguenze dell’inazione: non solo azioni sbagliate, ma anche azioni "mancate" possono produrre danni significativi, lasciando il controllo nelle mani del settore privato, guidato dal profitto.

L’editoriale propone tre osservazioni rilevanti:

1. La tecnologia, se ben indirizzata, può migliorare profondamente la vita umana.

2. Non si può delegare esclusivamente al privato il governo dell’IA: serve un settore pubblico attivo, capace di regolare, stimolare e controllare la innovazione.

3. L’ Europa in questo contesto può fungere da modello: l’Unione Europea, con l’AI- Act, rappresenta infatti un esempio di legislazione più tempestiva, da cui gli Stati Uniti potrebbero trarre ispirazione.

L’autore conclude auspicando un impegno rapido e strutturato del governo federale USA per massimizzare i benefici dell’IA e limitarne i probabili rischi.



Commento
L’editoriale del prof. Galea mette in luce un nodo cruciale: l’asimmetria tra la velocità dell’innovazione tecnologica e la lentezza delle Istituzioni. Questa dinamica è particolarmente rischiosa in sanità, dove le decisioni automatizzate influenzano direttamente la vita dei pazienti.
Nelle prossime auspicabili azioni istituzionali meritano attenzione:
1. Governance e fiducia – Senza una regolazione solida, il rischio è che i cittadini perdano fiducia sia nella sanità sia nelle istituzioni, soprattutto in caso di errori algoritmici o discriminazioni nei modelli predittivi.
2. Dimensione politica – L’instabilità normativa americana descritta da Galea non è solo tecnica, ma riflette tensioni ideologiche sulla regolazione dei mercati e sul ruolo dello Stato. In questo senso, la salute diventa un terreno di scontro politico oltre che tecnologico.
3. Prospettiva comparata – L’Europa emerge come laboratorio normativo, ma non è esente da critiche: l’AI- Act stesso rischia di essere percepito come troppo rigido dalle imprese tecnologiche. Il confronto transatlantico sarà quindi fondamentale per bilanciare innovazione e sicurezza.

L’articolo sottolinea in particolare un’aspetto critico: non è più sufficiente discutere dei rischi e benefici dell’IA, occorre attrezzare rapidamente le istituzioni pubbliche per governare il fenomeno. Senza questa capacità, il pericolo non è solo l’errore algoritmico, ma la paralisi decisionale che lascia spazio all’anarchia regolatoria.



Continua nella prossime pillole dedicate all’ AI-ACT Europeo


Riccardo De Gobbi e Giampaolo Collecchia


Bibliografia
Galea S.: Inaction on Artificial Intelligence Regulation in a Time of Upheaval Editorial JAMA Health Forum. 2025;6(7):e251246. doi:10.1001/jamahealthforum.2025.1246

________________________________________

Letto : 14 | Torna indietro | Stampa la Pillola | Stampa la Pillola in pdf | Converti in XML
 
© Pillole.org 2004-2025 | Disclaimer | Reg. T. Roma n. 2/06 del 25/01/06 | Dir. resp. D. Zamperini
A  A  A  | Contatti | Realizzato con ASP-Nuke 2.0.7 | Versione stampabile Versione stampabile | Informa un amico | prendi i feed e podcasting di Pillole.org
ore 07:12 | 111969538 accessi| utenti in linea: 29813