Versión en español abajo
Il mondo della finanza sta vivendo una vera e propria rivoluzione tecnologica. Cambiamenti tanto rapidi e intensi da ricordare l’idea di “distruzione creativa” del capitalismo proposta dal l’economista Schumpeter: una fase in cui le trasformazioni sono tanto profonde e durature da portare alla scomparsa di imprese, filiere e modelli produttivi e all’emergere di nuovi. Trasformazioni che riguardano tanto la dimensione operativa quanto quella culturale e sociale.
Se quasi ogni ambito e servizio finanziario è interessato, l’intelligenza artificiale è forse l’innovazione con le ricadute potenzialmente più impattanti. I rischi per la finanza etica sono diversi, sia riguardo l’erogazione del credito, sia nel campo degli investimenti.
Riguardo il primo ambito, l’intelligenza artificiale può analizzare su base statistica un numero enorme di prestiti passati, valutando le caratteristiche di chi ha restituito il finanziamento e di chi non l’ha fatto. In questo modo cercherà di imparare (machine learning) quali sono i fattori di rischio e di conseguenza se concedere o meno un prestito in futuro a determinate tipologie di clienti.
Questa modalità porta a diverse problematiche. Prima tra tutte: quali dati vengono presi per realizzare l’analisi statistica? Diverse ricerche mostrano come spesso i clienti vengano profilati anche su base etnica, religiosa, sessuale, portando a discriminazioni nell’accesso al credito. Il rischio è anche che le previsioni si auto-confermino. Mettiamo che un algoritmo stabilisca che le persone di una determinata fede religiosa o etnia siano più a rischio. Come risultato, le banche tenderanno a non concedere crediti a queste persone, o a farlo a condizioni più gravose (tassi di interesse più alti o maggiori garanzie richieste). Queste stesse persone avranno quindi maggiori difficoltà sia nell’ottenere un prestito sia nel restituirlo, il che confermerà e rafforzerà l’indirizzo preso dall’algoritmo.
Un altro problema di enorme rilevanza riguarda la privacy e l’invasività nella raccolta dei dati per creare la base statistica necessaria al machine learning. Le società che elaborano e vendono le nostre informazioni personali possono raccogliere decine di migliaia di dati su un singolo individuo. Chi di noi legge tutte le lunghissime condizioni di contratto che ci appaiono quando utilizziamo un programma o scarichiamo un’applicazione sul nostro telefonino? Chi di noi sa che fine fanno e come sono usati i cookies che accettiamo ogni volta che visitiamo un sito internet?
Ancora, nel momento in cui un’analisi statistica fondata su milioni di dati segnala che un determinato soggetto potrebbe essere a rischio, quale impiegato in banca si assumerà la responsabilità di fornire un parere opposto? Questa problematica rimanda al governo interno della banca e a come vengono presi i processi decisionali dagli impiegati che analizzano il credito fino ai vertici societari. Ancora prima, l’intelligenza artificiale è un elemento della valutazione complessiva o diventa la valutazione in sé?
Il rischio è quello di andare verso una de-umanizzazione in cui il rapporto tra banca e cliente viene sostituito da un algoritmo. A cascata questo potrebbe ulteriormente aggravare il problema di una maggiore esclusione finanziaria per le persone già oggi più vulnerabili e con maggiori difficoltà nell’accesso al credito.
Passando dall’attività creditizia a quella di investimento, i problemi sono altrettanto rilevanti. Il rischio principale è quello di una concentrazione sempre più spinta, una sorta di “oligopolio al quadrato”. Sono pochissime le imprese tecnologiche che elaborano gli algoritmi, così come pochissimi i gestori in posizione di forza sui mercati finanziari. In una spirale perversa questi investitori istituzionali sono spesso tra i maggiori azionisti delle stesse società tecnologiche che elaborano gli algoritmi usati per selezionare gli investimenti. In un recente documento, anche ricercatori della Banca Centrale Europea hanno segnato come l’intelligenza artificiale “potrebbe rivelarsi un mercato in cui il vincitore prende tutto”, portando a un’ulteriore concentrazione nel sistema finanziario, a “un’accelerazione delle realtà “troppo grandi per fallire” e al trasferimento delle rendite economiche dai consumatori alle istituzioni finanziarie”.
Non solo. Se pochissimi algoritmi che si nutrono delle stesse serie storiche di dati decidono acquisti e vendite, il rischio è di esasperare i comportamenti “di gregge”, con impatti evidenti in termini di stabilità finanziaria. È nuovamente la ricerca della BCE a segnalare che “l’intelligenza artificiale può distorcere la funzione di elaborazione delle informazioni dei mercati, aumentando il potenziale di crisi endogena. […] Può rendere le conclusioni dei partecipanti al mercato sistematicamente distorte, portando a prezzi degli asset distorti, aumento della correlazione, comportamenti di gregge o bolle”.
Come in ambito creditizio le conseguenze peggiori potrebbero verificarsi per i più deboli e i soggetti già oggi esclusi dai servizi bancari, cosi anche riguardo gli investimenti, gli impatti più pesanti potrebbero ricadere sui piccoli risparmiatori e i soggetti con minore esperienza. In altre parole, il rischio principale dello sviluppo dell’intelligenza artificiale in ambito finanziario è un’ulteriore separazione tra pochi soggetti in posizione di forza che ne traggono tutti i benefici e la maggioranza dei clienti e dei risparmiatori che ne subiscono gli impatti negativi. L’allargamento di una forbice già oggi inaccettabile per un sistema finanziario che esaspera le diseguaglianze e drena risorse dall’insieme della società e del sistema produttivo verso una piccola minoranza.
Anche per questo il mondo della finanza etica è chiamato a interrogarsi e a prendere posizione. L’intelligenza artificiale è uno strumento. L’impatto che avrà sul mondo finanziario, e in generale sulle nostre vite, dipende dall’uso che decideremo di farne. È necessaria una riflessione che abbracci gli aspetti operativi, normativi, culturali e sociali. È possibile utilizzarla non per penalizzare, ma al contrario per favorire l’accesso al credito per i soggetti oggi esclusi? Per migliorare la valutazione di impatto? Per semplificare operazioni ripetitive e in questo modo liberare tempo per la relazione con il cliente e i servizi non finanziari? Per incanalare le sue enormi potenzialità verso l’interesse di tutte e tutti e non della piccola minoranza che guida oggi tanto i giganti tecnologici quanto quelli finanziari? Perché sia centrata su bisogni e necessità degli esseri umani e del pianeta?
Assieme alle nostre reti di riferimento in Italia, Europa e su scala internazionale stiamo seguendo da vicino l’evoluzione tecnologica e le sue ricadute sul piano sociale e ambientale (pensiamo ai consumi energetici dell’intelligenza artificiale), oltre che economici e finanziari. Stiamo già lavorando per raccogliere la sfida per pensare e realizzare un nostro percorso anche riguardo l’intelligenza artificiale. Un percorso che possa rafforzare ulteriormente i nostri valori, la nostra visione e la distintività della finanza etica.
— Andrea Baranes, socio di Banca Etica dal 1999
Inteligencia artificial, riesgos y oportunidades para el sector financiero
El mundo de las finanzas está viviendo una verdadera revolución tecnológica. Cambios tan rápidos e intensos que recuerdan la idea de “destrucción creativa” del capitalismo propuesta por el economista Schumpeter: una fase en la que las transformaciones son tan profundas y duraderas que llevan a la desaparición de empresas, cadenas productivas y modelos de negocio, y al surgimiento de otros nuevos. Transformaciones que afectan tanto la dimensión operativa como la cultural y social.
Si bien casi todos los ámbitos y servicios financieros se ven impactados, la inteligencia artificial es quizás la innovación con consecuencias potencialmente más significativas. Los riesgos para la banca ética son diversos, tanto en lo que respecta a la concesión de créditos como en el campo de las inversiones.
En cuanto al primer ámbito, la inteligencia artificial puede analizar, sobre una base estadística, un número enorme de préstamos pasados, evaluando las características de quienes han devuelto el financiamiento y de quienes no lo han hecho. De este modo, intentará aprender (machine learning) cuáles son los factores de riesgo y, en consecuencia, si conceder o no un préstamo en el futuro a determinadas tipologías de clientes.
Esta modalidad conlleva diversas problemáticas. La primera, entre todas, es: ¿qué datos se utilizan para realizar el análisis estadístico? Diversas investigaciones muestran que, a menudo, los clientes son perfilados también en base a su origen étnico, religioso o sexual, lo que conduce a discriminaciones en el acceso al crédito. Existe, además, el riesgo de que las previsiones se auto-confirmén. Supongamos que un algoritmo determina que las personas de una determinada fe religiosa o etnia son más propensas al riesgo. Como resultado, los bancos tenderán a no conceder créditos a estas personas, o a hacerlo en condiciones más gravosas (tasas de interés más altas o mayores garantías exigidas). Estas mismas personas, por tanto, tendrán mayores dificultades tanto para obtener un préstamo como para devolverlo, lo que confirmará y reforzará la orientación asumida por el algoritmo.
Otro problema de enorme relevancia es la privacidad y la invasividad en la recolección de datos para crear la base estadística necesaria al machine learning. Las empresas que procesan y venden nuestra información personal pueden recopilar decenas de miles de datos sobre un solo individuo. ¿Quién de nosotros lee todas las interminables condiciones de contrato que aparecen cuando utilizamos un programa o descargamos una aplicación en nuestro teléfono? ¿Quién de nosotros sabe qué sucede con los cookies que aceptamos cada vez que visitamos un sitio web?
Además, en el momento en que un análisis estadístico basado en millones de datos señala que un determinado sujeto podría estar en riesgo, ¿qué empleado en el banco asumirá la responsabilidad de ofrecer un parecer opuesto? Esta problemática remite al gobierno interno del banco y a cómo se toman los procesos decisionales, desde los empleados que analizan el crédito hasta los altos cargos. Incluso surge la cuestión de si la inteligencia artificial es un elemento de la evaluación global o si se convierte en la evaluación en sí misma.
El riesgo es avanzar hacia una deshumanización en la que la relación entre banco y cliente sea sustituida por un algoritmo. En cadena, esto podría agravar aún más el problema de una mayor exclusión financiera para las personas ya hoy más vulnerables y con mayores dificultades para acceder al crédito.
Pasando de la actividad crediticia a la de inversión, los problemas son igualmente relevantes. El riesgo principal es el de una concentración cada vez mayor, una especie de “oligopolio al cuadrado”. Son muy pocas las empresas tecnológicas que desarrollan los algoritmos, así como muy pocos los gestores en posición de fuerza en los mercados financieros. En una espiral perversa, estos inversores institucionales suelen estar entre los mayores accionistas de las mismas empresas tecnológicas que elaboran los algoritmos utilizados para seleccionar las inversiones. En un documento reciente, incluso investigadores del Banco Central Europeo han señalado que la inteligencia artificial “podría resultar en un mercado en el que el ganador se lleva todo”, lo que llevaría a una mayor concentración en el sistema financiero, a “una aceleración de las realidades ‘demasiado grandes para caer’ y al traslado de rentas económicas de los consumidores a las instituciones financieras”.
No solo eso. Si muy pocos algoritmos, que se nutren de las mismas series históricas de datos, deciden sobre compras y ventas, el riesgo es exacerbar los comportamientos “de manada”, con impactos evidentes en términos de estabilidad financiera. Nuevamente, una investigación del BCE advierte que “la inteligencia artificial puede distorsionar la función de procesamiento de la información de los mercados, aumentando el potencial de crisis endógenas. […] Puede hacer que las conclusiones de los participantes del mercado estén sistemáticamente distorsionadas, llevando a precios de activos distorsionados, a un aumento de la correlación, a comportamientos de manada o a la formación de burbujas”.
Así como en el ámbito crediticio las peores consecuencias podrían afectar a los más débiles y a los sujetos ya excluidos de los servicios bancarios, en lo que respecta a las inversiones, los impactos más severos podrían recaer sobre los pequeños ahorradores y aquellos con menor experiencia. En otras palabras, el riesgo principal del desarrollo de la inteligencia artificial en el ámbito financiero es una mayor separación entre unos pocos sujetos en posición de fuerza, que obtienen todos los beneficios, y la mayoría de los clientes y ahorradores, que sufren los impactos negativos. Se ensancha una brecha ya inaceptable en un sistema financiero que exacerba las desigualdades y drena recursos de la sociedad y del sistema productivo hacia una pequeña minoría.
Por ello, el mundo de la finanza ética está llamado a cuestionarse y a tomar posición. La inteligencia artificial es una herramienta. El impacto que tendrá en el mundo financiero, y en general en nuestras vidas, depende del uso que decidamos hacer de ella. Es necesaria una reflexión que abarque los aspectos operativos, normativos, culturales y sociales. ¿Es posible utilizarla no para penalizar, sino, por el contrario, para favorecer el acceso al crédito para los sujetos hoy excluidos? ¿Para mejorar la evaluación de impacto? ¿Para simplificar operaciones repetitivas y, de este modo, liberar tiempo para la relación con el cliente y para los servicios no financieros? ¿Para canalizar sus enormes potencialidades hacia el interés de todas y todos, y no solo de la pequeña minoría que hoy dirige tanto a los gigantes tecnológicos como a los financieros? ¿Para que se centre en las necesidades y requerimientos de los seres humanos y del planeta?
Junto con nuestras redes de referencia en Italia, Europa y a escala internacional, estamos siguiendo de cerca la evolución tecnológica y sus repercusiones en el plano social y ambiental (pensemos en el consumo energético de la inteligencia artificial), además de las consecuencias económicas y financieras. Ya estamos trabajando para aceptar el desafío de pensar y desarrollar un propio camino en lo que respecta a la inteligencia artificial. Un camino que pueda reforzar aún más nuestros valores, nuestra visión y la distintividad de la finanza ética.
— Andrea Baranes, socio de Banca Etica desde 1999