|
|
|
|
|
|
|
|
|
Ma insomma l' I.A. e' veramente affidabile ? |
|
|
Inserito il 01 gennaio 2025 da admin. - professione - segnala a:
Abbiamo gia’ parlato delle esperienze non felicissime avute con Copilot, ora apprendiamo che alcuni ricercatori hanno riscontrato difetti analoghi anche per ChatGPT.
Mettiamoci il cuore in pace: per un futuro ancora indeterminabile l’ I.A. andra’ tenuta sotto stretto controllo, senza pretendere prodotti di qualita’ troppo elevata. Prudenza, ed attento controllo!
Apprendiamo dalla stampa che uno studio del Tow Center for Digital Journalism (Columbia University) ha rivelato che il motore di ricerca di OpenAI (meglio noto come ChatGPT Search) fornisce spesso risposte errate e attribuite a fonti erronee o addirittura inesistenti, per cui sono stati sollevati molti dubbi sulla sua affidabilità.
A ChatGPT Search sono state sottoposte 200 citazioni provenienti da diverse pubblicazioni online: incredibile a credersi l’ I.A. ne ha sbagliate (parzialmente o completamente) ben 153! I ricercatori hanno riscontrato una preoccupante tendenza a inventare fonti e attribuire citazioni in modo inesatto.
Il programma era stato lanciato con affermazioni mirabolanti sulla sua affidabilita’, promettendo "risposte rapide e tempestive con collegamenti a fonti web pertinenti" ma in realta’ il programma forniva con toni di certezza (quasi di sicurezza di se’) risposte completamente o parzialmente errate più spesso che corrette. Assai raramente le risposte presentano toni piu’ o meno dubitativi o di parziale incertezza ("appare", "è possibile", "potrebbe") o ammette di non saper fornire una risposta precisa.
I ricercatori riportano vari esempi che non riportiamo in quanto collegati essenzialmente al mondo americano.
OpenAI ha minimizzato le critiche affermando che lo studio del Tow Center rappresenta solo un "test atipico" del prodotto e che l'azienda sta continuando a migliorare l’ efficienza del programma.
Dobbiamo tuttavia mettere in guardia gli utilizzatori. Anche chi scrive ha gia’ riferito esperimenti da lui effettuati artigianalmente: interrogando su se stesso una diversa Inelligenza Artificiale ha ricevuto in risposta qualche verita’ e un sacco di balle…
Basare percio’ le proprie convinzioni scientifiche (ma anche politiche, letterarie o personali) su ricerche affettuate dall’ I.A. senza uno strettissimo controllo successivo, espone a rischi legali e e distruzione della propria reputazione. Intendiamoci: esistono anche parecchi studi che invece mettono l’ accento sull’utilita’ dell’ I.A. e suoi derivati, e forse ci si arrivera’, pero’ attualmente vanno considerati entrambi gli aspetti (positivo e negativo). In un'epoca in cui la disinformazione è un problema crescente, occorre percio’ che gli strumenti di ricerca forniscano informazioni accurate e verificabili. Le versioni attuali non sembrano ancora essere all'altezza. Aspettiamo e speriamo…!
Daniele Zamperini
http://www.scienzaeprofessione.it/public/nuke/modules.php?name=News&file=article&sid=2771
http://www.scienzaeprofessione.it/public/nuke/modules.php?name=News&file=article&sid=2759&mode=thread&order=0&thold=0
https://www.pillole.org/public/aspnuke/news.asp?id=8567
e molti altri…
|
|
|
Letto : 7900 | Torna indietro | | |
|
|
|
|
|
|
|
|
© Pillole.org 2004-2025 | Disclaimer | Reg. T. Roma n. 2/06 del 25/01/06 | Dir. resp. D. Zamperini
ore 12:02 | 105883412 accessi| utenti in linea:
14729
|
|