in

Intelligenza artificiale: la sperimentazione nel dark web

(Teleborsa) – Nel 2023, il servizio Kaspersky Digital Footprint Intelligence ha scoperto quasi 3mila post sul dark web, in cui si discuteva dell’uso di ChatGPT per scopi illegali o si faceva riferimento a strumenti basati su tecnologie AI. Sebbene le conversazioni abbiano raggiunto l’apice a marzo, le discussioni continuano. “Gli attori delle minacce stanno esplorando attivamente vari schemi per implementare ChatGPT e AI. Gli argomenti trattati includono spesso lo sviluppo di malware e altri tipi di uso illecito dei modelli linguistici, come l’elaborazione di dati utente rubati, il parsing di file da dispositivi infetti e altro. La popolarità degli strumenti di IA ha favorito l’integrazione delle risposte automatiche di ChatGPT o dei suoi equivalenti in alcuni forum di criminali informatici. Inoltre, gli attori delle minacce tendono a condividere jailbreak attraverso vari canali del dark web – speciali set di prompt che possono sbloccare funzionalità aggiuntive – e a escogitare modi per sfruttare strumenti legittimi, come quelli per il pentesting, basati su modelli per scopi malevoli”, ha spiegato Alisa Kulishenko, Digital Footprint Analyst di Kaspersky.

Oltre ai chatbot e all’intelligenza artificiale, si sta prestando molta attenzione a progetti come XXXGPT, FraudGPT e altri. Questi modelli linguistici sono commercializzati sul dark web come alternative a ChatGPT, vantando funzionalità aggiuntive e l’assenza delle limitazioni originali.

Un’altra minaccia per utenti e aziende è il mercato degli account per la versione a pagamento di ChatGPT. Nel 2023 sono stati identificati nel dark web e nei canali shadow di Telegram altri 3000 post (oltre a quelli già citati) che pubblicizzavano account ChatGPT in vendita. Questi post distribuiscono account rubati o promuovono servizi di registrazione automatica che creano in massa account su richiesta. In particolare, alcuni post sono stati pubblicati ripetutamente su più canali del dark web. “Sebbene gli strumenti di IA di per sé non siano intrinsecamente pericolosi, i criminali informatici – ha affermato Kulishenko – stanno cercando di trovare modi efficienti per utilizzare i modelli linguistici, alimentando così una tendenza ad abbassare la barriera d’ingresso al cyber crime e, in alcuni casi, ad aumentare potenzialmente il numero di attacchi IT. Tuttavia, è improbabile che l’IA generativa e i chatbot rivoluzionino il panorama degli attacchi, almeno nel 2024. La natura automatizzata dei cyberattacchi spesso implica difese automatizzate. Tuttavia, restare informati sulle attività degli aggressori è fondamentale per essere in vantaggio sugli avversari in termini di sicurezza informatica aziendale”.


Fonte: http://news.teleborsa.it/NewsFeed.ashx

Prezzi: calo generale per la frutta e la verdura di stagione

Milano marcia in positivo con gli altri mercati del Vecchio Continente