I+lati+oscuri+di+ChatGPT%3A+quali+sono+secondo+gli+esperti
ricercaitalianait
/2023/05/01/i-lati-oscuri-di-chatgpt/amp/
Scienza e tecnologia

I lati oscuri di ChatGPT: quali sono secondo gli esperti

La rivoluzione dell’Intelligenza artificiale sta raggiungendo livelli a dir poco fantascientifici. ChatGPT è la più grande rappresentazione di ciò, essendo già un argomento fortemente divisivo ed incredibilmente discusso ultimamente.

Per coloro che hanno vissuto in una grotta negli ultimi mesi, ChatGPT è un’intelligenza artificiale che svilupperà qualsiasi tipo di contenuto scritto desideri. E sebbene ciò possa essere una manna dal cielo per gli studenti, dalle elementari all’università dove potrebbero addirittura barare per raggiungere la laurea, sta anche causando altri problemi nel mondo della sicurezza.

Sin dalla sua uscita il 30 novembre 2022, ChatGPT è stato accolto come uno dei maggiori sviluppi nell’intelligenza artificiale (AI). Il “GPT” nel nome sta per Generative Pre-trained Transformer (GPT), un modello di apprendimento della rete neurale che consente alle macchine di eseguire attività di elaborazione del linguaggio naturale (NLP).

Creato e lanciato da OpenAI, una società co-fondata da Elon Musk e Sam Altman con altri, ChatGPT è essenzialmente un chatbot AI in grado di eseguire qualsiasi attività basata su testo assegnatagli. In altre parole, ChatGPT può scrivere risme e risme di codice molto più velocemente e, forse, molto più accuratamente degli umani. Può svolgere anche compiti puramente artistici come scrivere poesie o testi di canzoni. Esiste anche una versione Pro del chatbot che, secondo quanto riferito, verrà rilasciata presto. Sarà in grado di rispondere alle domande più velocemente e consentirà agli utenti di lavorarci anche durante un traffico elevato sulla piattaforma.

Logo di open AI – Foto di Andrew Neel/Pexels.com

I pericoli nascosti su ChatGPT

ChatGPT ha fatto notizia sin dalla sua uscita. Ha guadagnato un’incredibile popolarità in poco più di due mesi. Oltre a Musk, Bill Gates è uno dei più grandi sostenitori dell’intelligenza artificiale e, per estensione, del chatbot. L’intelligenza artificiale è qualcosa che tutti sanno un giorno sostituirà la mano umana. E, chissà, forse anche il cervello! Il timore che gli strumenti di intelligenza artificiale tolgano posti di lavoro si è rafforzato con l’arrivo di ChatGPT.

Ad esempio, il chatbot può scrivere un saggio dettagliato su quasi tutti gli argomenti entro i suoi parametri in pochi minuti. Ciò ovviamente minaccia i mezzi di sussistenza di coloro che si dedicano alla produzione di contenuti scritti, almeno coloro che intraprendono incarichi di scrittura non specializzati e ripetitivi.

I criminali informatici stanno ancora capendo come funziona. Su ChatGPT devi specificare esattamente ciò di cui hai bisogno affinché funzioni. Non puoi semplicemente scrivere “per favore creami un malware”. Inoltre, il codice di ChatGPT è tutt’altro cheperfetto. Richiede più interazioni, e queste sono le chiavi per questo strumento in cui devi chiedere la stessa cosa più volte e adattare l’output esattamente a ciò di cui hai bisogno, oppure devi apportare alcune modifiche al codice.

I ricercatori, come il fornitore di sicurezza CyberArk, hanno scoperto che ChatGPT può essere utilizzato per creare malware polimorfico, che è un tipo di programma malware altamente evasivo. Eran Shimony e Omer Tsarfati di CyberArk hanno rivelato di essere stati in grado di aggirare i filtri del chatbot AI che gli impediscono di creare malware. Lo hanno fatto riformulando e ripetendo le loro domande. Hanno anche scoperto che ChatGPT può replicare e mutare un codice e crearne più versioni.

ChatGPT sul cellulare – Foto di Airam Dato/Pexels.com

Risultati simili sono stati rivelati dal gruppo di ricerca di Recorded Future. Hanno scoperto che ChatGPT può creare payload di malware come quelli che possono rubare criptovaluta e ottenere l’accesso remoto tramite trojan. I ricercatori hanno testato il chatbot per gli attacchi di spearphishing e hanno scoperto che non commetteva gli stessi errori, come quelli relativi all’ortografia e alla grammatica, che sono comuni in tali e-mail. Gli errori di battitura aiutano ad avvisare le persone per identificare le email di phishing. In assenza di tali indicatori, è molto più probabile che gli utenti cadano preda di e-mail di phishing redatte dai chatbot e li inducano a inviare informazioni di identificazione personale.

Una delle minacce più significative di ChatGPT sottolineata da Recorded Future è il modo in cui il chatbot può diffondere facilmente e in modo ingannevole disinformazione da parte di attori poco qualificati. I ricercatori hanno avvertito che il chatbot può essere utilizzato come arma da attori statali dei governi e criminali informatici. Ciò è dovuto alla sua capacità di emulare accuratamente il linguaggio umano e trasmettere emozioni.

ricercaitaliana.it

Recent Posts

Rapporto uomo-cane: cosa dice davvero la scienza

Dietro ogni sguardo di un cane c’è un intreccio di legami, ansie e adattamento. La…

2 settimane ago

Gli enti pubblici e le istituzioni di ricerca in Italia

La ricerca pubblica italiana prova a uscire dalla sua lunga crisi di identità e a…

2 settimane ago

L’Italia che ricicla male: il paradosso dei materiali “buoni” che inquinano più dei “cattivi”

Bicchieri "eco", tessuti rigenerati, pannelli solari: il racconto del green perfetto salta qualche capitolo. È…

3 settimane ago

Il problema di salute più sottovalutato? Quello che non mostra sintomi (finché non è tardi)

Quando il corpo non fa male è davvero tutto a posto? Un viaggio nel lato…

3 settimane ago

Lauree magistrali: quali sono i corsi di laurea che vale la pena fare?

Scegliere se proseguire gli studi con una laurea magistrale è uno dei passi più importanti…

3 settimane ago

Campi Flegrei e bradisismo: gli scenari catastrofici e una prospettiva più ottimistica

Un territorio che respira, una comunità che ascolta i suoi movimenti e una storia sotterranea…

4 settimane ago