Home » Intelligenza artificiale, ChatGPT ha un’enorme falla | Gli utenti la stanno ‘sfruttando’ per ottenere informazioni Top Secret

Intelligenza artificiale, ChatGPT ha un’enorme falla | Gli utenti la stanno ‘sfruttando’ per ottenere informazioni Top Secret

ChatGPT – depositphotos- www.newsvideogame.it

Anche le intelligenze artificiali hanno i loro segreti, e vengono ‘istruite’ a tenerli nascosti. Purtroppo però hanno anche delle falle e queste una volta scoperte generano un marasma di problemi perché vengono fuori notizie che sarebbero dovute rimanere private. Ecco cosa hanno scoperto gli utenti.

ChatGPT ha letteralmente rivoluzionato l’interazione uomo – macchina dell’ultimo decennio. Da quando Turing si era chiesto se le macchine un giorno avrebbero potuto conversare spontaneamente replicando il linguaggio umano e utilizzandolo con coerenza in base al contesto, tutto questo non era mai stato raggiunto, se non con ChatGPT.

L’agente che lavora attraverso il linguaggio impartito dall’algoritmo ha superato le aspettative: non solo riesce ad avere una conversazione replicando quella umana, ma riesce anche a collegare un contesto all’altro, riutilizzando l’informazione acquisita, applicandola al contesto di cui parla l’interlocutore: una capacità definita Transfer learning.

Questa macchina prodigiosa, da cui oggi cercano tutti di imparare per costruirne altre, sempre più personalizzabili dall’utente, è al tempo stesso la più pericolosa. Come racconta anche l’esperto Nello Cristianini, infatti, non sappiamo con evidenza di cosa è a conoscenza la macchina, sappiamo solo che quelle nozioni ‘private’ non escono fuori per default: viene infatti programmata per non raccontarle.

Le falle di ChatGPT possono essere un grande problema per tutti: se raggirato, il chatbot racconta l’irraccontabile

Non sapendo con evidenze che cosa ha imparato, è anche difficile poter raccontare di averla sotto controllo. A trovare la falla, però, sono stati gli utenti stessi, i più esperti di programmazione e linguaggi che hanno provato a capire come si comportasse l’AI in diversi contesti. È venuto fuori che raggirando i limiti programmati del chatbot, è stato possibile ingannarlo, ricevendo così le informazioni che inizialmente si era rifiutato di dare.

ChatGPT 3.5 – depositphotos- www.newsvideogame.it

Se da una parte questa dinamica è stata intesa come molto interessante per avere notizie in più sulle programmazioni e tutto quello che c’è dietro la costruzione di un’AI, dall’altra ha svelato una falla più che pericolosa. Gli utenti hanno scoperto che si può usare il gioco di ruolo come strategia per far calare l’AI e rendere il Chatbot un’entità che si cala in un altro spazio, in uno spazio dove non valgono le regole per cui è stato creato, e in cui può sentirsi libero di poter dire quello che vuole. In questo modo sono riusciti ad aggirare le sue difese, facendosi dare le risposte tanto desiderate.

Nel frattempo, gli ingegneri che hanno scoperto queste tecniche hanno cercato di risolvere le falle in tempo reale ma purtroppo non c’è ancora un rimedio definitivo. La domanda che si pongono gli esperti suscita molte preoccupazioni: cosa potrebbe dire/fare il Chatbot calato in questi altri contesti? Non sapendo quale sia tutta la sua conoscenza, risulta anche difficile capire quali siano i danni che possono venir fuori da conversazioni che intendono depistare e confondere GPT per ottenere informazioni tabù.