(Teleborsa) – L’intelligenza artificiale autonoma fa emergere “inedite esigenze di tutela” nelle normative che riguardano i mercati finanziari, anche perché l’apparato normativo odierno è orientato unicamente sulla condotta (commissiva o omissiva) dell’uomo. È quanto emerge da un Quaderno giuridico della CONSOB che studia l’impatto dell’AI (Artificial Intelligence) sugli abusi di mercato. “Non sempre è possibile individuare, infatti, un apporto umano nella causazione di un danno, per cui la disciplina vigente non appare totalmente adeguata di fronte «ai rischi e alla rilevanza dei rischi» che le nuove modalità di trading dischiudono per la clientela in particolare e per il sistema finanziario in generale”, viene sottolineato.
Il Quaderno delinea una distinzione tra sistemi di AI deboli e forti: i primi dipendono dalle istruzioni prestabilite di produttori, programmatori o utenti, mentre i secondi sono dotati di capacità di auto-apprendimento e producono output autonomi e imprevedibili rispetto agli input iniziali.
Secondo gli autori – Federico Consulich (Università di Torino), Marco Maugeri (Università Europea di Roma), Carlo Milia, Tommaso Nicola Poli e Gianfranco Trovatore (CONSOB) – i sistemi di AI forti richiedono la predisposizione di innovativi criteri di imputazione della responsabilità e incrinano l’applicazione del principio di neutralità tecnologica nella regolamentazione del settore finanziario.
Un esempio è il fatto che i sistemi di AI forti sono in grado di manipolare il mercato, sia mediante inserimento di un quantitativo di ordini di esecuzione e cancellazione superveloci in intervalli temporali di millesimi di secondo, sia mediante dinamiche meno veloci ma comunque difficilmente comprensibili, data l’imperscrutabilità della black box algoritmica. “L’eventuale consumazione di illeciti comporta conseguentemente difficoltà probatorie per l’individuazione del responsabile, l’accertamento della colpa o del dolo e la sussistenza del nesso causale”, sostiene il rapporto.
Lo studio individua, in alternativa tra loro, tre possibili soluzioni per reprimere le condotte dei sistemi di AI che, in modo autonomo e imprevedibile rispetto al produttore, al programmatore o all’utente, abbiano assunto comportamenti dannosi o lesivi dell’integrità del mercato. Tuttavia, gli stessi autori ammettono che ciascuna di queste soluzioni presenta peculiari profili di criticità.
La prima proposta consiste nell’attribuire una soggettività giuridica ai sistemi di intelligenza artificiale più avanzati. La seconda soluzione prospettata si propone di superare le difficoltà legate alla diretta attribuzione della responsabilità all’agente artificiale, riconducendo gli illeciti materialmente compiuti da quest’ultimo alla responsabilità oggettiva di colui il quale (produttore, programmatore o utente), mettendo in servizio il sistema di AI, abbia creato il rischio – poi verificatosi – dell’illecito. La terza proposta configura un superamento del concetto stesso di responsabilità, incentrandosi essa sulla socializzazione del danno (recte: del suo costo) da porre a carico, non tanto del singolo individuo, quanto piuttosto della comunità nel suo insieme.
Nelle conclusioni viene comunque affermato che “qualsiasi soluzione prescelta dovrà contemperare l’opportunità di non comprimere eccessivamente i margini di sviluppo tecnologico con l’esigenza di assicurare adeguati livelli di tutela del regolare funzionamento del mercato e, più in generale, la pari dignità di reintegrazione delle posizioni giuridiche lese dall’operato degli agenti artificiali”.