Il Quaderno delinea una distinzione tra sistemi di AI deboli e forti: i primi dipendono dalle istruzioni prestabilite di produttori, programmatori o utenti, mentre i secondi sono dotati di capacità di auto-apprendimento e producono output autonomi e imprevedibili rispetto agli input iniziali.
Con la diffusione di queste tecnologie nel mercato finanziario emergono inedite esigenze di tutela a fronte di un apparato normativo orientato unicamente sulla condotta (commissiva o omissiva) dell’uomo: la tenuta del quadro normativo e l’imputazione degli illeciti finanziari compiuti con l’intervento di questi sistemi. In particolare, i sistemi di AI forti richiedono la predisposizione di innovativi criteri di imputazione della responsabilità e incrinano l’applicazione del principio di neutralità tecnologica nella regolamentazione del settore finanziario.
Il lavoro individua tre possibili ed alternative soluzioni dirette a reprimere le condotte dannose dei sistemi di AI forti, ma ciascuna di queste soluzioni presenta peculiari elementi di criticità.