11 Janvier, 2023

L'IA doit-elle être réglementée pour les services financiers ?

L'IA dans les services financiers a le potentiel de résoudre certains des problèmes les plus urgents au monde, mais elle a également le potentiel de créer de nouveaux défis.

L'IA transforme le secteur des services financiers. Elle est utilisée pour déterminer la solvabilité, détecter les fraudes, identifier le blanchiment d'argent, personnaliser les services et recommander des offres. En outre, les chatbots et les assistants d'IA ont permis aux clients d'obtenir plus facilement des réponses 24 heures sur 24 et 7 jours sur 7.


En outre, l'IA permet aux banques, aux assureurs, à la microfinance, aux prêteurs d'argent, aux caisses de crédit, aux coopératives et aux fonds de pension de gérer les données à une vitesse sans précédent afin d'en tirer des informations précieuses pour personnaliser les produits et services financiers et améliorer l'engagement des clients.


La taille du marché mondial de l'IA dans le secteur bancaire, évaluée à 3,88 milliards de dollars en 2020, devrait atteindre 64,03 milliards de dollars d'ici 2030, avec un TCAC de 32,6 %. Environ 32% des banques utilisent déjà des technologies d'IA telles que l'analyse prédictive et la reconnaissance vocale.


Si la confiance dans la fintech est élevée, ce n'est pas forcément le cas pour l'IA. Nombreux sont ceux qui ont fait part de leurs inquiétudes quant au risque de partialité, de discrimination, de problèmes de confidentialité, de surveillance, de manque de transparence, d'utilisation abusive, de conséquences involontaires et de pertes d'emplois dues à l'automatisation par l'IA.


Les services financiers sont déjà l'un des secteurs les plus réglementés. Il n'est donc pas surprenant que l'on se demande si l'IA doit être soumise au même niveau de réglementation.


Il est également inquiétant que la majorité de la recherche et du leadership en matière d'IA soit concentrée dans deux pays (les États-Unis et la Chine), et que la propriété intellectuelle soit concentrée dans les grandes entreprises technologiques (Google AI, Meta, Amazon et OpenAI) qui dominent déjà le paysage numérique. Cela pourrait limiter d'autres pays, en particulier les marchés émergents et les nouveaux acteurs.


Dans ce blog, nous allons explorer les deux côtés de l'argument.


Les réglementations commencent à prendre forme. En avril 2022, la Commission Européenne a publié le premier cadre juridique appelé « AI Act ».


La proposition de règlement de l'UE couvre une variété d'applications de l'IA, notamment les contrôles de crédit, les chatbots et l'évaluation du crédit social, qui évalue la fiabilité d'une personne en fonction de son comportement.


La Commission fédérale du commerce des États-Unis travaille sur un cadre juridique similaire afin que l'IA puisse être utilisée de manière véridique, juste et équitable en ce qui concerne les décisions relatives au crédit, à l'assurance et à d'autres services. Malheureusement, il faudra encore au moins un an, voire plus, avant qu'elle ne soit ratifiée et quelques années supplémentaires avant que les entreprises ne soient tenues de s'y conformer, voire plus longtemps encore avant qu'elle ne soit adoptée par d'autres pays et qu'elle n'atteigne les marchés émergents.


Les arguments en faveur de la réglementation:


D'un côté de l'argument, les applications de l'IA ne font l'objet que de peu de surveillance ou de responsabilité. La technologie est en grande partie une "grosse boîte noire". Les systèmes d'IA peuvent être biaisés de manière naturelle en raison d'un biais dans les données elles-mêmes ou dans la manière dont l'algorithme les traite ou dans la manière dont son modèle est formé, ce qui peut entraîner des actions non désirées.


Une réglementation est nécessaire pour éviter tout préjudice. Certains experts estiment que l'IA sera utilisée à des fins néfastes si elle n'est pas réglementée. Par ailleurs, la réglementation est nécessaire pour garantir l'équité. Il existe des cas où l'IA a été utilisée pour favoriser certaines personnes au mépris d'autres. L'un des objectifs est d'empêcher la manipulation du marché.


Les robots conversationnels de négociation utilisant l'IA pourraient exploiter des informations privilégiées, se livrer à des activités illicites et diffuser de fausses informations sur les résultats ou les produits d'une entreprise afin de manipuler le cours des actions et de générer des profits pour quelques-uns tout en laissant la plupart des investisseurs ordinaires sur le carreau.


La réglementation de l'IA pourrait protéger les consommateurs contre les abus. Un conseiller financier utilisant l'IA pourrait donner des conseils trompeurs ou inexacts s'il n'est pas correctement programmé ou s'il est programmé de manière délibérée avec des informations erronées. La réglementation de l'IA pourrait garantir que les conseils financiers sont exacts, neutres et dignes de confiance.


À l'inverse, certains pensent que l'IA peut exercer une discrimination à l'encontre des emprunteurs (par exemple, les femmes, les minorités, les personnes âgées, les personnes handicapées, certaines religions, les LGBTQ) en leur facturant des intérêts plus élevés et en ne leur proposant pas de produits spécifiques.


Elle pourrait également exclure les personnes non bancarisées ou sous-bancarisées en leur attribuant des scores de crédit inférieurs ou en les considérant comme à haut risque en raison de l'indisponibilité des données ou de la faiblesse des données historiques.


Enfin, la réglementation est nécessaire pour protéger et garantir que les consommateurs savent comment leurs données personnelles sont utilisées par les entreprises.


Pour s'assurer que le secteur financier aborde ces questions, l'IEEE a lancé un guide pour garantir que les personnes impliquées dans le développement des technologies ne mettent pas de côté le bien-être humain et l'éthique. Pour se prémunir contre de tels résultats, les organisations et les gouvernements doivent examiner de près l'utilisation de l'IA et créer des équipes d'audit tierces indépendantes qui supervisent l'éthique, la gouvernance, l'utilisation équitable et la conduite.


Les arguments contre la réglementation:


Elle pourrait étouffer l'innovation. De nombreux experts estiment que l'IA permettra d'identifier et de prévenir les fraudes, de réduire les défauts de remboursement des prêts et de prendre de meilleures décisions d'investissement. Une réglementation trop stricte pourrait les empêcher de tirer le meilleur avantage du potentiel de l'IA et limiter la capacité des entreprises à être compétitives dans une économie mondiale.


Ils font valoir que la réglementation augmentera les coûts et rendra la situation difficile pour les petites entreprises, ce qui retardera son adoption par les entreprises en raison des coûts et des charges liés à la conformité.


Un autre point critique est que de nombreux problèmes liés à l'IA peuvent être résolus sans avoir recours à une intervention lourde du gouvernement. Ils affirment que la fraude peut être évitée en imposant la transparence et la vérification. De même, ils affirment que les cas de discrimination peuvent être traités en interdisant les données personnelles dans la prise de décision automatisée. Enfin, il est possible de remédier aux cas d'injustice en veillant à ce que les algorithmes soient soumis à des tests de neutralité avant leur déploiement.


Conclusion:


Il n'y a pas de réponse claire. Le débat risque de faire rage pendant des années, sans qu'on puisse en voir la fin. En fin de compte, la décision reviendra aux décideurs et aux législateurs de peser les risques et les avantages.


En attendant, les entreprises peuvent toujours tirer profit des nombreux avantages tels que la mise en place de solutions de chatbot. Pour découvrir comment notre chatbot peut vous aider à optimiser vos interactions avec les clients et améliorer votre rentabilité, n'hésitez pas à nous contacter!

Retour
au début