I lati oscuri di ChatGPT: quali sono secondo gli esperti

Per coloro che hanno vissuto in una grotta negli ultimi mesi, ChatGPT è un’intelligenza artificiale che svilupperà qualsiasi tipo di contenuto scritto desideri. E sebbene ciò possa essere una manna dal cielo per gli studenti, dalle elementari all’università dove potrebbero addirittura barare per raggiungere la laurea, sta anche causando altri problemi nel mondo della sicurezza.

Sin dalla sua uscita il 30 novembre 2022, ChatGPT è stato accolto come uno dei maggiori sviluppi nell’intelligenza artificiale (AI). Il “GPT” nel nome sta per Generative Pre-trained Transformer (GPT), un modello di apprendimento della rete neurale che consente alle macchine di eseguire attività di elaborazione del linguaggio naturale (NLP).

Creato e lanciato da OpenAI, una società co-fondata da Elon Musk e Sam Altman con altri, ChatGPT è essenzialmente un chatbot AI in grado di eseguire qualsiasi attività basata su testo assegnatagli. In altre parole, ChatGPT può scrivere risme e risme di codice molto più velocemente e, forse, molto più accuratamente degli umani. Può svolgere anche compiti puramente artistici come scrivere poesie o testi di canzoni. Esiste anche una versione Pro del chatbot che, secondo quanto riferito, verrà rilasciata presto. Sarà in grado di rispondere alle domande più velocemente e consentirà agli utenti di lavorarci anche durante un traffico elevato sulla piattaforma.

Logo di open AI
Logo di open AI – Foto di Andrew Neel/Pexels.com

I pericoli nascosti su ChatGPT

ChatGPT ha fatto notizia sin dalla sua uscita. Ha guadagnato un’incredibile popolarità in poco più di due mesi. Oltre a Musk, Bill Gates è uno dei più grandi sostenitori dell’intelligenza artificiale e, per estensione, del chatbot. L’intelligenza artificiale è qualcosa che tutti sanno un giorno sostituirà la mano umana. E, chissà, forse anche il cervello! Il timore che gli strumenti di intelligenza artificiale tolgano posti di lavoro si è rafforzato con l’arrivo di ChatGPT.

Ad esempio, il chatbot può scrivere un saggio dettagliato su quasi tutti gli argomenti entro i suoi parametri in pochi minuti. Ciò ovviamente minaccia i mezzi di sussistenza di coloro che si dedicano alla produzione di contenuti scritti, almeno coloro che intraprendono incarichi di scrittura non specializzati e ripetitivi.

I criminali informatici stanno ancora capendo come funziona. Su ChatGPT devi specificare esattamente ciò di cui hai bisogno affinché funzioni. Non puoi semplicemente scrivere “per favore creami un malware”. Inoltre, il codice di ChatGPT è tutt’altro cheperfetto. Richiede più interazioni, e queste sono le chiavi per questo strumento in cui devi chiedere la stessa cosa più volte e adattare l’output esattamente a ciò di cui hai bisogno, oppure devi apportare alcune modifiche al codice.

I ricercatori, come il fornitore di sicurezza CyberArk, hanno scoperto che ChatGPT può essere utilizzato per creare malware polimorfico, che è un tipo di programma malware altamente evasivo. Eran Shimony e Omer Tsarfati di CyberArk hanno rivelato di essere stati in grado di aggirare i filtri del chatbot AI che gli impediscono di creare malware. Lo hanno fatto riformulando e ripetendo le loro domande. Hanno anche scoperto che ChatGPT può replicare e mutare un codice e crearne più versioni.

ChatGPT sul cellulare
ChatGPT sul cellulare – Foto di Airam Dato/Pexels.com

Risultati simili sono stati rivelati dal gruppo di ricerca di Recorded Future. Hanno scoperto che ChatGPT può creare payload di malware come quelli che possono rubare criptovaluta e ottenere l’accesso remoto tramite trojan. I ricercatori hanno testato il chatbot per gli attacchi di spearphishing e hanno scoperto che non commetteva gli stessi errori, come quelli relativi all’ortografia e alla grammatica, che sono comuni in tali e-mail. Gli errori di battitura aiutano ad avvisare le persone per identificare le email di phishing. In assenza di tali indicatori, è molto più probabile che gli utenti cadano preda di e-mail di phishing redatte dai chatbot e li inducano a inviare informazioni di identificazione personale.

Una delle minacce più significative di ChatGPT sottolineata da Recorded Future è il modo in cui il chatbot può diffondere facilmente e in modo ingannevole disinformazione da parte di attori poco qualificati. I ricercatori hanno avvertito che il chatbot può essere utilizzato come arma da attori statali dei governi e criminali informatici. Ciò è dovuto alla sua capacità di emulare accuratamente il linguaggio umano e trasmettere emozioni.

Impostazioni privacy