Un aiuto che non è infallibile
L’uso delle intelligenze artificiali (AI) è diventato un’abitudine quotidiana per molti utenti, sia sul lavoro che nel tempo libero. Tuttavia, è cruciale ricordare che queste tecnologie presentano ancora delle debolezze. Recentemente, un’indagine del celebre giornale The Guardian ha messo in luce alcune vulnerabilità all’interno di ChatGPT Search, rivelando che i risultati delle ricerche possono essere manipolati in modi non intesi.
I pericoli della manipolazione dei risultati
Il problema si verifica quando i siti web incorporano istruzioni nascoste nel loro codice. Queste istruzioni possono “guidare” l’intelligenza artificiale a mostrare solo determinate informazioni. Per esempio, cercando delle recensioni di un prodotto, ChatGPT potrebbe fornire solo feedback positivi, ignorando completamente le opinioni negative. Questo non è solo un caso isolato ma evidenzia una problematica più ampia che coinvolge vari strumenti di ricerca AI.
Un appello alla prudenza
Secondo Karsten Nohl, esperto di cybersecurity, non è saggio affidarsi ciecamente alle risposte fornite dall’AI. Dovrebbero essere considerate solo come un supporto e non come una fonte unica di verità. Il problema non è esclusivo di OpenAI; anche Google deve affrontare sfide simili nello sviluppo delle sue funzioni AI. Nonostante i miglioramenti, è evidente che c’è ancora molta strada da fare per garantire la trasparenza e l’affidabilità delle informazioni fornite dalle intelligenze artificiali.