Placeholder address.
info@paradigma.it
011 538686

L’intelligenza artificiale nella concessione del credito: tra innovazione e responsabilità

L’intelligenza artificiale nella concessione del credito: tra innovazione e responsabilità

L’intelligenza artificiale sta progressivamente cambiando il modo in cui le banche valutano e concedono credito. La possibilità di analizzare in pochi secondi enormi quantità di dati, di automatizzare procedure e di formulare valutazioni predittive estremamente accurate promette un aumento significativo di efficienza e rapidità nei processi decisionali. Tuttavia, a fronte di questi benefici evidenti, emergono anche nuovi e complessi profili di responsabilità.

 

Nel campo della concessione del credito, l’utilizzo di algoritmi predittivi e sistemi di machine learning può certamente migliorare la capacità degli intermediari di identificare i rischi e di gestire le informazioni economiche e finanziarie dei clienti. Ma il potenziale innovativo della tecnologia non può e non deve sostituire la responsabilità umana. Gli algoritmi sono strumenti di supporto e non decisioni autonome, e la banca rimane sempre responsabile della correttezza, della trasparenza e della legittimità dei processi che adotta.

 

La normativa bancaria e quella europea in materia di protezione dei dati delineano un quadro chiaro. Gli articoli 124-bis e 120-undecies del Testo Unico Bancario impongono agli istituti di credito di valutare il merito creditizio del richiedente sulla base di informazioni adeguate, pertinenti e proporzionate, e di operare secondo i principi di sana e prudente gestione. Ciò significa che, anche se la tecnologia consente di compiere analisi più sofisticate, resta fermo l’obbligo di verifica umana e la responsabilità per eventuali errori o scelte non conformi alla legge.

 

Le Linee Guida EBA del 2020 sulla concessione e monitoraggio dei prestiti chiariscono che l’uso di modelli automatizzati è consentito, ma deve avvenire entro confini precisi: trasparenza, tracciabilità, non discriminazione e supervisione costante. La Banca d’Italia, in un’analisi del 2022, ha ribadito che l’intelligenza artificiale può sostenere la valutazione del rischio di credito, ma solo come strumento di supporto e non come sostituto della decisione umana. È, in sostanza, una tecnologia da utilizzare “a supporto”, non “al posto” del giudizio dell’intermediario.

 

I rischi non sono teorici. Gli algoritmi possono generare bias e discriminazioni indirette: un modello di machine learning potrebbe associare erroneamente categorie professionali, zone geografiche o caratteristiche sociali a un livello di rischio più elevato, limitando l’accesso al credito di intere fasce di clientela. Anche senza intenzionalità, l’effetto può essere discriminatorio e contrario ai principi di uguaglianza e correttezza. L’AI Act europeo, infatti, classifica i sistemi di intelligenza artificiale utilizzati per valutare l’affidabilità creditizia tra quelli “ad alto rischio”, proprio per le potenziali conseguenze economiche e sociali che comportano.

 

A questo si aggiunge il tema della profilazione dei clienti. Secondo il GDPR, ogni trattamento automatizzato di dati personali volto a prevedere o valutare aspetti economici o comportamentali di una persona costituisce attività di profilazione. Se condotta senza il consenso esplicito dell’interessato o senza una base giuridica adeguata, può configurare una violazione grave della normativa sulla privacy, soprattutto qualora riguardi dati sensibili come l’origine etnica, le opinioni politiche o lo stato di salute. Il rischio che un sistema AI acquisisca o utilizzi tali informazioni in modo non conforme è tutt’altro che remoto, e impone presidi tecnici e giuridici solidi.

 

Un altro punto critico riguarda la trasparenza verso i clienti. La normativa bancaria e il GDPR impongono che, nel caso in cui la decisione di concessione del credito sia basata su un trattamento automatizzato, il cliente venga informato della logica utilizzata e delle conseguenze che tale processo può avere. In altre parole, chi richiede un prestito deve sapere se la decisione è stata influenzata da un algoritmo e su quali parametri si è basata. Questo obbligo di informazione non è formale, ma sostanziale: serve a tutelare il diritto del cliente a una decisione consapevole e alla possibilità di contestare eventuali errori.

 

Da qui emergono i principali profili di responsabilità. L’intermediario creditizio risponde civilmente se, a causa di un uso distorto o scorretto dei sistemi AI, concede credito a soggetti insolventi o nega finanziamenti a clienti meritevoli. Può essere chiamato a rispondere anche in sede amministrativa, ad esempio nell’ambito del D.Lgs. 231/2001, qualora l’utilizzo anomalo degli algoritmi integri reati presupposto e l’ente non disponga di un modello organizzativo idoneo a prevenirli. Gli amministratori e gli organi di controllo sono tenuti a vigilare sulla corretta implementazione dei sistemi tecnologici e sull’adeguatezza dell’assetto organizzativo aziendale; il personale tecnico e i data scientist devono garantire la qualità dei dati e la robustezza dei modelli; le funzioni di audit e validazione hanno l’obbligo di verificare periodicamente l’affidabilità degli strumenti impiegati.

 

In sintesi, l’intelligenza artificiale applicata al credito può rendere più efficiente e dinamico il sistema bancario, ma non ne alleggerisce la responsabilità. Al contrario, ne amplia il perimetro. L’innovazione, per essere sostenibile, deve essere accompagnata da una costante vigilanza, da un presidio etico e da una piena consapevolezza dei rischi giuridici. La tecnologia non è neutrale: è il modo in cui viene utilizzata a determinare se sarà uno strumento di progresso o una fonte di contenzioso e diseguaglianza.

Condividi