Une IA qui lutte contre la fraude bancaire - Ouest Valorisation

Podcasts

Une IA qui lutte contre la fraude bancaire

TIC & sciences de l'ingénieur

Expliquer à des experts bancaires les décisions de l’Intelligence artificielle en matière de fraude bancaire : c’est le défi relevé par le LAB-STICC de Brest

L’Intelligence Artificielle est devant vous. Vous tapez votre requête. L’IA vous répond. La réponse est d’une apparente justesse, mais comment s’explique-t-elle ?

Que se cache-t-il derrière cette réflexion artificielle ? Comment expliquer des résultats rendus par des modèles aussi opaques ?

Le Laboratoire des sciences et techniques de l’information, de la communication et de la connaissance (LAB-STICC) de Brest s’est attelé à cette question, à travers une thèse appliquée à la fraude bancaire.

Selon Pierre De Loor, professeur des universités, responsable du pôle Interaction du LAB-STICC (UMR 6285) et professeur à l’École nationale d’ingénieur de Brest (ENIB): «  Le problème des IA actuelles réside dans la complexité de leurs modèles qui reposent sur des millions de paramètres. L’idée initiale de la thèse est de travailler sur l’explicabilité des algorithmes à destination des experts bancaires. »

Corentin Boidot, doctorant et data scientist, est en charge de cette explicabilité au sein de Crédit Mutuel Arkéa, un groupe de bancassurance.

Il ironise : « Il faut savoir que les IA, qui fonctionnent par apprentissage dit profond ou automatique, ont elles-mêmes la réputation d’être incompréhensibles, même pour les développeurs ».

D’où la grande nécessité de vulgariser leur fonctionnement, notamment à destination des experts non-informaticiens qui utilisent des IA spécialisées,

Corentin Boidot travaille sur des méthodes de lutte contre le blanchiment d’argent.

« Il faut distinguer blanchiment et fraude bancaire : la lutte contre la fraude bancaire consiste à protéger nos clients, la lutte contre le blanchiment représente un devoir vis-à-vis de l’État. », précise-t-il.

 

Expliquer, c’est choisir

L’explicabilité passe par le développement d’un modèle, qui ne touche pas à l’architecture initiale de l’IA. Expliquer, c’est choisir. Le doctorant explique : « Ce modèle est une API (interface de programmation d’application), c’est-à-dire une fonction exécutée pour chaque transaction sur un serveur interne de la banque. Par exemple, en attribuant un poids particulier à l’une des variables déterminantes dans les profils des clients, le modèle peut influencer la décision finale.»

Du côté des experts bancaires, le travail du data scientist sera transparent et l’explication se concrétisera sous forme d’interfaces graphiques ou explicatives, plus ou moins détaillées : « Les experts bancaires peuvent juste avoir accès à une décision prise par l’IA, couplée à un score de confiance concernant cette décision, ou encore visualiser les principales variables qui sont estimées comme étant les plus influentes sur le résultat. Ce sont deux exemples parmi d’autres.»

Pierre De Loor propose encore une autre possibilité : « Sur un profil de client particulier, il est aussi envisageable d’afficher un cas similaire, connu pour avoir blanchi de l’argent par exemple. Il existe différentes façons d’apporter une ‘explication’».

Vous l’aurez compris, il s’agit donc d’éclairer la décision de l’IA sans dévoiler le modèle en général, ce qui serait impossible, ni même les causes détaillées des décisions prises.

Et si on leur pose la question directement : « Mais finalement, qu’est-ce qu’une explication ? », les deux informaticiens se montrent philosophes. « C’est comme se demander : Ça veut dire quoi, comprendre ? La réponse à cette question n’est pas simple. Lorsque quelqu’un s’exclame : « J’ai compris ! », en fait, que s’est-il passé pour lui ? »

Comprendre, même partiellement, une IA, c’est peut-être admettre qu’un voyage puisse être aussi fascinant que la destination finale.

 

 

Contactez-nous

Vous avez un projet innovant ? Laissez-nous vous aider à le concrétiser

Parlez-nous de votre projet