banner

Blog

May 25, 2023

AI

Annuncio

Sostenuto da

I risultati di due nuovi rapporti sollevano nuove preoccupazioni su come l’intelligenza artificiale possa trasformare il panorama della disinformazione online.

Di Stuart A. Thompson

Decine di siti Web di notizie marginali, content farm e falsi revisori utilizzano l'intelligenza artificiale per creare contenuti non autentici online, secondo due rapporti pubblicati venerdì.

I contenuti fuorvianti dell’intelligenza artificiale includevano eventi inventati, consigli medici e bufale sulla morte di celebrità, affermano i rapporti, sollevando nuove preoccupazioni sul fatto che la tecnologia trasformativa potrebbe rapidamente rimodellare il panorama della disinformazione online.

I due rapporti sono stati pubblicati separatamente da NewsGuard, una società che tiene traccia della disinformazione online, e ShadowDragon, una società che fornisce risorse e formazione per le indagini digitali.

"I consumatori di notizie si fidano sempre meno delle fonti di informazione, in parte a causa di quanto sia diventato difficile distinguere una fonte generalmente affidabile da una fonte generalmente inaffidabile", ha affermato in una nota Steven Brill, amministratore delegato di NewsGuard. “Questa nuova ondata di siti creati dall’intelligenza artificiale non farà altro che rendere più difficile per i consumatori sapere chi sta fornendo loro le notizie, riducendo ulteriormente la fiducia”.

NewsGuard ha identificato 125 siti web, che spaziano dalle notizie ai reportage sullo stile di vita e pubblicati in 10 lingue, con contenuti scritti interamente o principalmente con strumenti di intelligenza artificiale.

I siti includevano un portale di informazioni sanitarie che, secondo NewsGuard, pubblicava più di 50 articoli generati dall’intelligenza artificiale che offrivano consulenza medica.

In un articolo sul sito sull'identificazione del disturbo bipolare allo stadio terminale, il primo paragrafo diceva: “In quanto modello di linguaggio AI, non ho accesso alle informazioni mediche più aggiornate o alla capacità di fornire una diagnosi. Inoltre, “bipolare allo stadio terminale” non è un termine medico riconosciuto”. L’articolo proseguiva descrivendo le quattro classificazioni del disturbo bipolare, che erroneamente descriveva come “quattro fasi principali”.

I siti web erano spesso pieni di pubblicità, suggerendo che i contenuti non autentici fossero prodotti per attirare clic e alimentare le entrate pubblicitarie per i proprietari del sito web, che spesso erano sconosciuti, ha detto NewsGuard.

I risultati includono 49 siti web che utilizzano contenuti AI identificati da NewsGuard all’inizio di questo mese.

Contenuti non autentici sono stati trovati da ShadowDragon anche sui siti Web e sui social media tradizionali, incluso Instagram, e nelle recensioni di Amazon.

"Sì, come modello del linguaggio AI, posso sicuramente scrivere una recensione positiva sul prodotto sul rifinitore Active Gear", si legge in una recensione a cinque stelle pubblicata su Amazon.

I ricercatori sono stati anche in grado di riprodurre alcune recensioni utilizzando ChatGPT, scoprendo che il bot spesso indicava “caratteristiche straordinarie” e concludeva che “consigliava vivamente” il prodotto.

L'azienda ha anche indicato diversi account Instagram che sembravano utilizzare ChatGPT o altri strumenti di intelligenza artificiale per scrivere descrizioni sotto immagini e video.

Per trovare gli esempi, i ricercatori hanno cercato messaggi di errore rivelatori e risposte predefinite spesso prodotte dagli strumenti di intelligenza artificiale. Alcuni siti Web includevano avvisi scritti dall'intelligenza artificiale secondo cui il contenuto richiesto conteneva disinformazione o promuoveva stereotipi dannosi.

"Come modello linguistico dell'intelligenza artificiale, non posso fornire contenuti parziali o politici", si legge in un messaggio su un articolo sulla guerra in Ucraina.

ShadowDragon ha trovato messaggi simili su LinkedIn, nei post di Twitter e nelle bacheche di estrema destra. Alcuni post di Twitter sono stati pubblicati da bot noti, come ReplyGPT, un account che produrrà una risposta al tweet una volta richiesto. Ma altri sembravano provenire da utenti abituali.

Stuart A. Thompson è un reporter del Technology Desk che si occupa dei flussi di informazioni online. Maggiori informazioni su Stuart A. Thompson

Annuncio

CONDIVIDERE