11 de Enero, 2023

¿Debería regularse la Inteligencia Artificial (IA) para los servicios financieros?

La IA en los servicios financieros tiene el potencial de resolver algunos de los problemas más apremiantes del mundo, aunque también tiene el potencial de crear algunos nuevos retos.

La IA está transformando el sector de los servicios financieros. Se utiliza para determinar la solvencia crediticia, la detección de fraudes, identificar el blanqueo de dinero, personalizar servicios y recomendar ofertas. Además, los chatbots y los asistentes de inteligencia artificial han facilitado que los clientes obtengan respuestas las 24 horas del día, los 7 días de la semana.


Además, la IA permite a los bancos, aseguradoras, empresas de microfinanzas, prestamistas, cooperativas de ahorro y crédito y fondos de pensiones administrar datos a una velocidad récord para obtener información valiosa para personalizar productos y servicios financieros y mejorar la participación del cliente.


El tamaño de la IA global en el mercado bancario, estaba valorado en 3.880 millones en 2020, se proyecta que alcance los 64.030 millones para el 2030, creciendo a una tasa compuesta anual del 32,6%. Alrededor del 32% de los bancos ya están utilizando tecnologías de inteligencia artificial, como el análisis predictivo y el reconocimiento de voz.


Aunque la confianza en la fintech es alta, ese no es necesariamente el caso de la IA. Muchos han expresado su preocupación por los posibles sesgos, la discriminación, los problemas de privacidad, la vigilancia, la falta de transparencia, el uso indebido, las consecuencias no deseadas y la pérdida de puestos de trabajo debido a la automatización generada por la IA.


Los servicios financieros ya son una de las industrias más reguladas. Por lo tanto, no es sorprendente que exista un debate sobre si la IA debería estar sujeta al mismo nivel de regulación.


También preocupa que la mayor parte de la investigación y el liderazgo de la IA se deba principalmente a dos países (Estados Unidos y China), y la propiedad intelectual se concentre con las grandes empresas tecnológicas (Google AI, Meta, Amazon y OpenAI) que ya dominan el panorama digital. Esto podría limitar a otros países, especialmente a los mercados emergentes y a los actores más nuevos.


En esta publicación de blog, exploraremos ambos lados del argumento.


Las regulaciones están empezando a tomar forma. En abril de 2022, la Comisión Europea publicó el primer marco jurídico llamada Ley de IA.

Las Normativas de la UE propuestas cubren una variedad de aplicaciones de IA, incluidas verificaciones de crédito, chatbots y puntuación de crédito social, que evalúa la solvencia crediticia de una persona en función del comportamiento.


La Comisión Federal de Comercio de los Estados Unidos está trabajando en un marco legal similar para que la IA se pueda utilizar de manera veraz, justa y equitativa con respecto a las decisiones sobre crédito, seguros y otros servicios. Pero, desafortunadamente, pasará al menos otro año, o más, antes de que sea ratificado y unos años más antes de que las empresas deban acatarlo y, potencialmente, incluso más tiempo antes de que sea adoptado por otros países y llegue a los mercados emergentes.


A favor de una regulación:


Por un lado, las aplicaciones de IA tienen poca supervisión o responsabilidad. La tecnología es en gran medida "una gran caja negra". Los sistemas de IA pueden estar sesgados inherentemente debido al sesgo en los datos en sí o en la forma en que el algoritmo los procesa o en la forma en que se entrena su modelo, lo que puede resultar en acciones no deseadas.


La regulación es necesaria para evitar daños. Algunos expertos creen que la IA se utilizará con fines nefastos si no se regula.


En segundo lugar, la regulación es necesaria para garantizar la equidad. Hay casos en los que la IA se ha utilizado para beneficiar a algunas personas a expensas de otras. Uno de ellos es evitar la manipulación del mercado.


Los chatbots comerciales habilitados por IA podrían comerciar con información privilegiada, participar en actividades ilegales y difundir información falsa sobre las ganancias o los productos de una empresa para manipular los precios de las acciones y generar ganancias para unos pocos, al tiempo que dejan a la mayoría de los inversores cotidianos en el frío.


La regulación de la IA podría proteger a los consumidores de que se aprovechen de ellos. Un asesor financiero habilitado por IA podría dar consejos engañosos o inexactos si no está programado correctamente o programado intencionalmente con información errónea. La regulación de la IA podría garantizar que el asesoramiento financiero sea preciso, neutral y fiable.


Por el contrario, algunos creen que la IA puede discriminar a los prestatarios (por ejemplo, mujeres, minorías, personas mayores, personas discapacitadas, ciertas religiones, LGBTQ), cobrarles intereses más altos y no ofrecer productos específicos.


Además, podría excluir a los no bancarizados o infrabancarizados asignándoles puntuaciones de crédito más bajas o clasificándolos como de alto riesgo debido a la falta de disponibilidad de datos o datos históricos débiles.


Por último, la regulación es necesaria para proteger y garantizar que los consumidores sepan cómo las empresas utilizan sus datos personales.

Para garantizar que la industria financiera aborda estos problemas, el IEEE lanzó una guía garantizar que los que participan en el desarrollo de las tecnologías no descuiden el bienestar humano y la ética. Para protegerse contra tales resultados, las organizaciones y los gobiernos deben examinar el uso de la IA y crear equipos de auditorías independientes por terceros que supervisen la ética, la gobernanza, el uso justo y la conducta.


Argumentos contra una regulación:


Una regulación podría limitar la innovación. Muchos expertos creen que la IA ayudará a identificar y prevenir el fraude, reducir los impagos de préstamos y tomar mejores decisiones de inversión. Si las regulaciones son demasiado estrictas, podría impedirles aprovechar al máximo el potencial de la IA y limitar la capacidad de las empresas para competir en una economía global.


Argumentan que la regulación aumentará los costes y dificultará el mercado para las pequeñas empresas, retrasando su adopción por parte de las empresas debido a los costes y cargas asociados con el cumplimiento.


Otro punto crítico es que muchos de los problemas asociados con la IA pueden abordarse sin recurrir a la intervención gubernamental estricta.


Argumentan que el fraude se puede prevenir exigiendo transparencia y audibilidad. Asimismo, dicen que los casos de discriminación pueden abordarse prohibiendo los datos personales en la toma de decisiones automatizada. Por último, los casos de injusticia se pueden remediar asegurando que los algoritmos se prueben para detectar sesgos antes de la implementación.


Conclusión:


No hay una respuesta fácil. Es probable que el debate se prolongue durante años, sin un final a la vista. En última instancia, la decisión se reducirá a sopesar los riesgos y los beneficios por parte de los responsables políticos y los legisladores.


Mientras tanto, las empresas todavía pueden aprovechar los numerosos beneficios, como implementar soluciones de chatbot. ¡Para descubrir cómo nuestro chatbot puede ayudar a optimizar sus interacciones con los clientes y mejorar su rentabilidad, póngase en contacto con nosotros!

Volver
al principio