Economia

Chat GPT mette a rischio la cybersecurity. Ecco perchè

Questa notizia è stata scritta più di un anno fa old news

Sicuramente Chat GPT costituisce uno strumento particolarmente utile e, allo stesso tempo, molto potente, per produrre contenuti in vari ambiti. Una capacità d una potenza che, però, lo rende attraente anche per i cybercriminali, che hanno cominciato ad utilizzarlo per attaccare direttamente persone ed aziende.

Chat GPT è un rischio per le società e le persone che lo utilizzano? È una domanda che si stanno ponendo alcuni imprenditori. Ermes, una società che si occupa di cybersicurezza, ha deciso di fare il punto della situazione e ha elencato i principali rischi che sono legati proprio a Chat GPT.

Chat GPT e i rischi informatici

Uno dei primi modi attraverso i quali i criminali hanno tentato di sfruttare Chat GPT è stata l’emulazione. Questo strumento sta attraversando un momento di grande popolarità: i malfattori, proprio per questo motivo, hanno iniziato a creare dei siti e delle applicazioni che ne sono una copia esatta. Grazie a questo stratagemma, i cybercriminali sono riusciti a carpire delle informazioni direttamente degli ignari utenti. In questo caso siamo davanti a dei normalissimi attacchi di phishing, che, tra l’altro, non sono nemmeno originali. Ma che, purtroppo, sono sempre efficaci.

In alcuni casi, comunque, Chat GPT viene coinvolto direttamente. Alcuni attacchi di phishing sfruttano l’IA per creare dei testi, che hanno un’accuratezza e una qualità senza precedenti. Con l’utilizzo dell’intelligenza artificiale è possibile creare dei messaggi sofisticati, senza grossolani errori linguistici. Ed è possibile creare un’infinità di mail personalizzate per ogni destinatario. Stesso discorso vale anche per le landing page, che vengono utilizzate per truffare gli utenti e rubare eventuali credenziali.

Le informazioni sensibili

Uno dei rischi connessi all’uso di Chat GPT è legato alla condivisione delle informazioni sensibili. In questo caso il rischio è che questi dati siano comunicati e resi disponibili ai truffatori.

Secondo Lorenzo Asuni, cmo di Ermes, le truffe non passeranno unicamente dalle mail, ma “sarà più facile costruire siti di phishing, campagne advertising, display banner e comunicazioni sempre più efficaci e cucite sui singoli profili di persone o aziende individuate all’interno degli attacchi dei cybercriminali”.

Come è possibile difendersi dagli usi impropri di Chat GPT? Anche in questo caso valgono sempre le solite raccomandazioni – prima tra tutte ricordarsi che la propria banca non richiede ai propri clienti i dati di accesso al home banking – anche se potrebbero non bastare. Utilizzando Chat GPT le potenzialità di fare attacchi aumenta in maniera massiccia: il problema è che saranno sempre più personalizzati e di difficile individuazione. Una delle strade percorribili potrebbe essere quella di utilizzare l’intelligenza artificiale per combattere l’AI. Asuni spiega che oggi, “grazie al machine learning si riescono a studiare milioni di dati utili all’investigazione, prevenzione e rilevamento degli attacchi, che spesso hanno schemi simili (riutilizzano gli stessi strumenti come codice malevolo, script, ecc): per questo con i corretti strumenti si può disinnescare la loro efficacia”.