Les Domaines d’Innovations Prioritaires(D.I.P)

L’introduction de ces trois innovations majeures (intelligence artificielle, blockchain et technologies quantiques) représente à terme un véritable changement de paradigme pour les métiers de la finance, et ce dans tous leurs aspects qui constituent autant d’enjeux.

Pour identifier les DIP, plus de 30 cas d’usages ont été étudiés et analysés et orientés selon les cinq axes suivants :

• La relation client SAV, avec l’apport des agents conversationnels (chatbots), la personnalisation/ultra-personnalisation des offres, le conseiller augmenté…

• L’efficacité opérationnelle incluant la gestion des contrats ou la gestion intelligente des bases documentaires sans oublier la gestion des données…

• L’investissement et le trading algorithmique, l’aide à la décision d’investissement, l’optimisation de portefeuille et la construction de dérivées.

• Les dimensions réglementaires avec un focus particulier sur la gestion du risque et la conformité.

• La création de nouvelles offres, nouveaux produits et services. Citons par exemple, dans le domaine de l’assurance, la couverture de nouveaux types de risques induits par l’évolution de la matière assurable (comme la voiture autonome).

Les 18 DIP identifiés pour l’intelligence artificielle sont regroupés en DIP technologiques appliqués aux métiers et en DIP transverses liés à la transformation de l’organisation.

DIP 1 : développer et augmenter la capacité décisionnelle en avenir incertain

Pistes de résolution et recommandations

Les propositions suivantes contribuent à répondre aux enjeux décrits ci-dessus :

• Qualifier et partager les données traitées entre les acteurs pour assurer une stabilité et une robustesse du système, notamment en finance de marché (DIP 16) ;

• Calculer le ROI de la mise en place d’un tel système pour en évaluer l’impact sur le long terme

• Garantir la cohérence décisionnelle de bout en bout (de la stratégie aux opérations) par l’hybridation de l’IA symbolique (prise en compte de la complexité de la modélisation) et l’apprentissage automatique et l’interopérabilité des systèmes ;

• Expliquer des décisions est incontournable pour que l’usager s’approprie le système et, dans certains cas critiques, certifier les procédures (DIP 15).

DIP 2 : augmenter le conseiller face au client

Pistes de résolution et recommandations

L’interaction entre le client et le conseiller doit être adaptée ou repensée lorsque l’on rajoute une IA :

• Afin de prendre en compte l’acceptation du conseiller, mais aussi du client, l’accompagnement à la conduite du changement doit être proposé. La Co-construction de ces solutions entre conseillers et concepteurs devient plus que jamais nécessaire.

• Pour développer l’acceptation, la fiabilité des recommandations doit être testée et qualifiée au cas par cas, voire même être évaluée par les conseillers et les clients eux-mêmes (DIP 15). Pour cela, la supervision de l’apprentissage automatique par des conseillers en situation réelle est une approche possible.

 • Enfin, pour fluidifier les échanges entre l’IA et le conseiller, il est nécessaire de développer des solutions efficaces en TAL (voir point saillant sur le (Traitement automatique de la langue).

DIP 3 : augmenter le collaborateur

Pistes de résolution et recommandations

• Un accompagnement personnalisé du collaborateur facilitera l’adhésion d’une assistance passive et non intrusive en garantissant une interopérabilité active à l’initiative du conseiller, avec des systèmes simplifiant les process de la banque (DIP 11 et DIP 12).

• Pour être efficace, le développement d’un coach virtuel nécessite la double compétence technique et métier Il est aussi nécessaire d’intégrer la possibilité d’une modération humaine (utilisation à la demande et selon le réel besoin).

DIP 4 : proposer le « self-care »

Pistes de résolution et recommandations

Les innovations possibles doivent permettre de :

• Garantir la  « débrayabilité » efficace des processus self-care vers des interlocuteurs humains en conservant le niveau d’information pour la personne qui reprend le dossier en cours ;

• Développer des produits de self-care B2B ;

• Développer le traitement du langage naturel sur le canal «voix ».

Pour cela, il est nécessaire de :

• Développer le self-care « push » et des moteurs de recommandation de produits et de services beaucoup plus fins et pertinents pour réaliser des ventes/actes croisés en self-care ;

• Intégrer une dimension prédictive (prochaine action du client) et d’arbitrage (cette demande du client mérite-t-elle d’être traitée ?) dans les parcours self-care.

DIP 5 : solliciter le client par l’IA

Pistes de résolution et recommandations

La prise en compte de la RGDP imposera des solutions fondées sur la sémantique permettant l’identification automatique des données personnelles (nom, n° sécurité sociale, adresse, maladie, etc) ainsi que des relations (distinction des profils clients et des interactions passées).

Ces solutions permettront également d’aller plus loin dans le processus de mise en conformité en opérant les phases d’anonymisation et de pseudonymisation des données personnelles, en détectant et en marquant les données sensibles à partir des contenus non structurés.

Il est recommandé de :

• Identifier et mettre en place des process owners pour contrôler les tâches effectuées par l’IA au niveau des entreprises ;

• Clarifier l’encadrement législatif de l’IA et des réflexions portant sur la prise en compte de l’éthique dès la conception (DIP 13) ;

• Soutenir et encourager les initiatives transverses et interdisciplinaires basées sur des approches travaillant sur des données anonymisées.Les technologies utilisées s’articulent autour du traitement et de la génération du langage naturel (voir le point saillant correspondant). Pour le traitement de la voix, il est important d’encourager la mise à disposition de grandes bases de données d’audios surtout en langue française, constat similaire à celui de la vision par ordinateur.

DIP 6 : optimiser la distribution omni-canal

Pistes de résolution et recommandations

Pour cela, il est important de :

• Se concentrer sur les scénarios optimisés avec 80 % des conversations pouvant être industrialisées ;

• Penser collaboration humain-machine pour capitaliser sur le meilleur de chacun d’entre eux ;

• Commencer sur un petit périmètre (identifier

les tâches les plus simples à (automatiser) puis faire évoluer rapidement les compétences de l’agent en s’appuyant sur les demandes des clients ;

• Concevoir un unique syst.me sans couture

interopérable avec l’ensemble des canaux visés ;

• Utiliser l’opportunité de mettre. disposition des clients un service 24 h/7 j sans file d’attente où les téléconseillers ne réalisent pas d’appels répétitifs au long d’une même journée ;

• Enclencher une conduite du changement (DIP 12) et une formation des téléconseillers qui éprouveraient le sentiment d’une compétition/rivalité avec l’IA (DIP 10) ;

• Revisiter les indicateurs de performance pour changer la donne afin de permettre aux téléconseillers de se concentrer sur la qualité de la relation client plut.t que sur la quantité d’appels traités.

DIP 7 : simplifier les processus de mise en conformité et faciliter la gestion des risques

Pistes de réflexion et recommandations

Dans les domaines régaliens comme la lutte contre le blanchiment et le financement du terrorisme, on pourrait s’attendre à un partage plus important entre structures afin de disposer d’un socle commun d’outils offrant au final un meilleur gage de sécurité pour tous. Ainsi, pour faire face aux questions de souveraineté, le développement d’une capacité nationale de traitement en masse des données pourrait être un atout dans le contexte actuel.

Par ailleurs, il conviendrait de développer des systèmes de consolidation et de pilotage de l’ensemble des risques issus D’opérations multiples (crédits, liquidités, marchés…) souvent gérées dans des systèmes d’information différents. La fiabilité des analyses et des reportings sera d’autant plus forte que la qualité des données sera élevée (DIP 16). Une mutualisation de l’effort de collecte et de fiabilisation,dans un dispositif national offrant les gages de protection nécessaires, serait un accélérateur indéniable et attendu. C’est pourquoi il est nécessaire de :

• Accompagner l’investissement dans les technologies apprenantes et la sécurisation/fiabilisation/agrégation des données.

• Développer et renforcer, dans le cadre respectueux des règles de concurrence,les expériences existantes destinées. faciliter le partage d’informations et de connaissances entre banques et assurances;

• Favoriser l’émergence de hubs d’experts en traitement de données, tant structurées que non structurées, et en IA symbolique et encourager les initiatives de partenariats.

DIP 8 : optimiser le crédit scoring

Pistes de résolution et recommandations

Une part importante du temps de développement de ces systèmes de scoring utilisant de l’apprentissage est consacrée aujourd’hui au nettoyage du jeu de données ainsi qu’à la définition d’un sous-ensemble de critères permettant d’assurer la stabilité des systèmes. Ainsi, pour améliorer la pertinence et l’efficacité de ces systèmes de scoring, un travail de préparation des données doit être réalisé (DIP16). De plus, on peut penser. Utiliser d’autres bases (identifier) pour améliorer l’apprentissage (en utilisant par exemples des approches de type transfert learning). Des fournisseurs d’outils et de technologies à base d’IA ont fait des avancées importantes,aussi un travail en étroite coopération permettrait de mettre en place rapidement des systèmes de crédit plus précis et plus robustes.

DIP 9 : lutter efficacement contre la fraude

Pistes de résolution et recommandations

Un travail conséquent au niveau de l’amélioration de la quantité et la qualité des données doit être réalisé afin de mieux nourrir les systèmes de machine learning.En accord avec les cadres réglementaires intersectoriel (RGPD, loi Informatique et Libertés) et propre au domaine bancaire et financier (secret bancaire), la mise en commun des jeux de données issus de plusieurs acteurs financiers avec des techniques d’anonymisation réconciliant un individu entre plusieurs banques permettrait de développer des systèmes beaucoup plus performants (DIP 16).Le recours à des algorithmes apprenants plus évolués offrirait de meilleures capacités de détection. La recherche sur la transparence des algorithmes et le développement de partenariats avec des acteurs fournissant dès aujourd’hui des approches évoluées et transparentes doivent être favorisés (DIP 15). Les acteurs de la lutte contre la fraude documentaire mettent en avant l’importance des processus de vérification KYC.Ces derniers permettent de vérifier l’identité des clients et des prestataires d’une entreprise via la production et le contrôle de documents tels qu’un extrait de K bis récent, une copie de RIB, les statuts de la société certifiés conformes, un justificatif d’identité du gérant de la société , etc. Différents outils existent contre ce type de fraude. Certains donnent un score de conformité au document, d’autres réalisent des contrôles de cohérence par rapport à des bases de données externes. Le recours à des systèmes intégrant une reconnaissance de la parole et notamment des émotions pourrait permettre de détecter des fraudes lors d’appels téléphoniques.

DIP 10 : vers un dialogue humain machine empathique.

Pistes de résolution et recommandations

Pour avancer, certaines approches réduisent le problème de la détection des émotions à celui plus simple et limité de la reconnaissance de quatre états émotionnels : la tristesse, la joie, la colère et la neutralité. Elles sont souvent basées sur un apprentissage supervisé, mais supposent de disposer de corpus annotés. On peut dans ce cas utiliser des corpus (publics) existants issus d’autres domaines comme ceux des centres d’appel.Cependant, les solutions multimodales, couplant la détection d’émotion via des signes corporels (au travers d’analyse d’images ou de vidéo) . l’analyse de la voix (acoustique, prosodique et sémantique) pose un réel défi, à la fois du côté des outils algorithmiques de fusion et sur la création d’une véritable base de données annotées multisources. De plus,au-delà de la simple corrélation, la concordance cognitive entre les sources d’information doit être mieux comprise, car certaines personnes comme les malvoyants basent leur interprétation sur des signaux acoustiques et sont capables de détecter un mensonge. la voix mieux que les personnes à la vue non altérée.Dans les premiers systèmes simples de dialogue (utilisant des questions fermées) comme ceux de certains centres d’appel, la discussion est guidée par l’agent conversationnel d’après un workflow prédéfini et l’interaction peut sembler rapidement limitée. L’intelligence du workflow et des messages d’erreurs sont donc autant de points importants. imaginer lors de la génération des réponses. Les systèmes plus évolués (discussion ouverte) se basent sur trois familles d’algorithmes. La première est entièrement basée sur l’apprentissage machine le système apprend à partir d’exemples, comment exprimer telle ou telle notion dans un langage donné (que ce soit une langue ou un langage symbolique comme la langue des signes). La deuxième famille d’algorithmes, dite à base de règles, repose uniquement sur la connaissance des différentes modalités d’interactions humaines.Enfin, la troisième famille hybride ces méthodes afin de profiter du meilleur des deux mondes. Cependant, l’écrit doit se séparer des autres modalités. En effet, l’écrit rend plus difficilement compte d’une émotion alors que l’oral peut transmettre des inflexions plus fines. à l’écrit, le discours doit absolument transmettre, dans son choix de vocabulaire (sémantique) et dans le ton général, l’émotion adaptée. Enfin, il faut ajouter à cela une capacité de génération de dialogue dans des langages spécifiques comme les expressions faciales ou le langage des signes, rarement présents dans les chatbots.Concevoir ces agents conversationnels implique de les doter d’une certaine forme d’intelligence socio-émotionnelle. Celle-ci doit leur permettre de gérer la dimension intrinsèquement sociale et émotionnelle de l’interaction humain-machine, en adoptant un comportement émotionnel et une attitude sociale adaptés au contexte de l’interaction. De plus, ces agents devraient pouvoir être capables d’exprimer leur attitude vis-à-vis de l’utilisateur non pas seulement à travers des mots, mais aussi à travers leur comportement non verbal.Pour répondre à cette problématique, une approche est de construire. partir de la perception de l’utilisateur un agent capable de raisonner sur le contexte de l’interaction pour déterminer quel comportement adopter dans une situation.

Ces systèmes doivent aussi dépasser une détection d’émotion figée dans le temps pour intégrer une dynamique conversationnelle, par exemple en détectant qu’il s’est passé quelque chose dans l’environnement cognitif de l’interlocuteur, pour évoluer quand cela est nécessaire vers une certaine forme d’empathie. Par ailleurs, il est nécessaire de construire des bases de données d’apprentissage réalistes et de travailler sur les algorithmes de fusion que ce soit au niveau bas (des capteurs: fusion de données) et qu’au niveau sémantique (des décisions : fusion sémantique information-connaissance).

Il est aussi essentiel de prendre en compte l’ensemble de la population visée pour la conception de tels systèmes. En effet, pour la génération textuelle, le degré de littératie limite souvent la compréhension de messages écrits longs et techniques. De plus, une part importante de la population nécessite soit une adaptation des moyens usuels de communication, par exemple une parole ralentie pour des personnes âgées ou le langage des signes pour les malentendants. Proposer des règles de transitions sur la base de modèles personnalisés en fonction de l’interlocuteur et de l’historique récent ainsi que des mécanismes d’apprentissage devient alors nécessaire. Ainsi, la création d’agents capables de simuler des émotions, des sentiments voire des intentions de façon située, faisant sens de façon écologique pour l’interlocuteur humain, pourrait avoir un impact fort pour la socialisation des générations natives du numérique.

Enfin, un axe prometteur pour le dialogue homme-machine, mais peu abord. aujourd’hui, est celui de la reconnaissance d’intention, permettant ainsi de générer des réponses adéquates. Pour cela, il est nécessaire de proposer des mécanismes de raisonnement que l’on pourrait baser sur le sens commun (common sense).

DIP 11 : accompagner la transformation des métiers

Pistes de résolution et recommandations

Pour accompagner cette évolution, voire cette transformation des métiers au sein de l’industrie financière, il est important de se poser les questions suivantes :

• Comment l’IA est-elle susceptible d’affecter les postes actuels ?

• Quelles fonctions du monde de la finance l’IA remplacera-t-elle à terme ?

• à contrario, quelles fonctions ne pourront pas être remplacées ?

L’IA peut même être considérée comme un thème privilégié de dialogue social, ce que les syndicats ont bien compris. Celui-ci gagnerait à être accompagné Par une action généralisée dans l’entreprise par une acculturation (voir le DIP 10) et en favorisant le partage d’informations et de connaissances afin de permettre. l’ensemble des collaborateurs de comprendre les transformations en cours.Cependant, l’IA devrait aussi permettre de faciliter l’apprentissage de ces nouveaux métiers dans la mesure où les compétences techniques sont bien plus faciles à automatiser que les compétences générales (empathie, leadership, créativité…). Dans ce contexte, la formation continue couplée avec une mise en pratique pourrait suffire.Gérer les impacts de l’IA sur l’emploi nécessite donc la coordination de toutes les parties prenantes de la société. Il faut ainsi :

• Intégrer des scénarii de développement de nouvelles activités liées à l’IA dans l’entreprise ;

• Mettre en place des évaluations des impacts sur emplois et compétences et mesurer les transferts de tâches ;

• Anticiper la requalification et repérer les formations adaptées (DIP 10) ;

• Analyser les projets pilotes en cours de développement au travers du prisme humain et leur impact sur les métiers ;

• Travailler avec les branches métiers pour participer à une gestion collective de la transformation (fédérations métiers bancaires et d’assurances) ;

• Concevoir des outils d’aide. l’analyse de la cha.ne de valeur et de l’évolution des structures de l’entreprise en fonction du degré de pénétration de l’IA dans chacun de ses processus ;

• Concevoir des parcours de progression- promotion et de formation qui anticipent et optimisent les besoins de l’entreprise en fonction de son évolution stratégique, du niveau de pénétration de l’IA dans les fonctions-métier et des aspirations des collaborateurs ;

• Favoriser les partenariats avec des startups et des spécialistes en IA et data sciences en particulier, pour pallier aux pénuries des talents (linguistique, gestion de la connaissance, raisonnement, dialogue…).

DIP 12 : acculturer et former à l’IA

Enjeux

Le véritable défi reste de franchir le pas entre la simple prise de conscience et la phase de formation.

• Très peu de professionnels parviennent à comprendre l’impact de l’IA sur les fonctions de la finance ;

• Les cours en ligne apparaissent comme une solution, mais là encore, le format ne répond pas forcément aux attentes des étudiants. Les instituts de formation s’accordent à dire qu’environ 90 % des inscrits abandonnent leur formation à mi-chemin faute de temps, de motivation ou d’enseignement de qualité.

Recommandations

Employés et cadres dirigeants doivent être sensibilisés et/ou formés. Les dirigeants auront pour tâche de définir la stratégie et le positionnement de l’entreprise et les employés vont devoir utiliser ou mettre en place des solutions. base d’IA.

• Acculturer le public en tenant compte de ses différentes composantes :

  • Le vertical métier, avec focus sur les spécificités de chacun ;

  • Le vertical secteur : fédérations, syndicats, groupements…

  • Sensibilisations tous publics. L’IA et travailler sur l’avenir collectif en favorisant  l’échange : think tanks intégrant la diversité, groupes thématiques… ;

  • Adaptation aux changements permanents ;

• Former les spécialistes et praticiens de l’IA et assurer le recrutement de nouveaux profils (développeur IA, ingénieur data, data scientist, data miner, chief data officer) ;

• Développer les compétences moins aisément g.r.es par l’IA (soft skills) : l’intelligence émotionnelle, la créativité, la pensée critique, l’empathie, le jugement éthique ;

• Définir l’approche pédagogique spécifique à l’IA ;

• Présenter les valeurs ajoutées de l’IA sur les métiers et chaînes de valeur ;

• Adopter une démarche d’expérimentation «  Test & Learn » :

• Le Test & Learn pour démystifier l’IA : associer les collaborateurs à la démarche   d’expérimentation participative (Co-création) permet de diminuer rapidement les appréhensions et les craintes en développant des pilotes et de se rendre compte des gains potentiels de la technologie ;

• Mettre en place avec les institutions de formation, universités et centres de recherche un réseau de partenariat avec cycles de conférences pour évangéliser sur les réalisations. effectuer sur les métiers des entreprises ;

• Former les formateurs et les référents : auditeurs, inspecteurs…

Ce n’est que par le biais d’une formation continue tout au long de sa carrière qu’un professionnel de la finance sera en mesure de maîtriser l’application de l’IA au quotidien. L’apprentissage de l’IA ne représente donc pas une fin en soi, mais un parcours.

DIP 13 : mettre en œuvre les grands principes éthiques

Enjeux

• La définition des valeurs éthiques et morales à préciser :

       • L’évolution du droit n’est pas celle de la morale ; l’éthique et la morale restent des exercices théoriques qui ont sujets à interprétation selon les cultures et les croyances ;

      • Neutralité : est-il possible de créer une IA neutre (non influencée, non influençable, protégée des lobbies, etc.) ?

• Rapidité, accélération, non-maitrise :

• Une technologie en perpétuelle mutation qui évolue plus vite que nos valeurs et qui peut influencer nos conceptions éthiques ;

• Les craintes sur la capacité de à garder la main

Recommandations

Mettre la place de l’éthique au centre de nos préoccupations et à tous les stades :

• éducation initiale et continue : enseignement de l’éthique dans les écoles, universités, entreprises et l’illustrer par des cas d’usages pour la rendre simple d’accès ;

• Former les actuels développeurs en IA pour s’assurer qu’ils génèrent des algorithmes avec des principes éthiques (autocontrôle), d’où le focus sur le serment d’Holberton-Turing ;

• Former les utilisateurs d’IA à user des applications avec éthique et responsabilité, mais aussi. signaler les problèmes (prendre en compte la législation et l’adapter pour les lanceurs d’alertes)

• Former des contrôleurs pour tester et observer les usages de l’IA avant leur diffusion et Soutenir les initiatives citoyennes, les associations de consommateurs, les think tanks… afin qu’ils s’approprient le sujet de l’éthique ;

• Rendre la connaissance de l’IA dynamique, en partageant largement et en favorisant le dialogue et les débats, en créant des chaires de recherche connectées avec la société civile et les entrepreneurs ;

• Tester l’IA avec une autre IA « neutre ». sur les scénarios possibles d’interprétations et faire des recommandations d’amélioration ou de précision ;

• Instaurer une Haute Autorité chargée de vérifier le respect des droits fondamentaux,

dont les crit.res d’inclusion et de solidarité dans les applications IA. Il est à noter que ces préoccupations ont pris très récemment une dimension internationale avec, à l’occasion de la 40e Conférence internationale des commissaires. la protection des données et de la vie privée,

L’adoption le 23 octobre 2018 d’une déclaration sur l’éthique et la protection des données dans l’intelligence artificielle à Rédigé par la CNIL et le contrôleur européen de la protection des données de l’Union européenne (CEPD), le texte est désormais ouvert. consultation publique et à contribution jusqu’au 25 janvier 201945. Il semble que ces principes rejoignent nos recommandations fondées sur quelques principes clés :

• Les technologies d’intelligence artificielle et d’apprentissage automatique doivent être conçues, développées et utilisées dans le respect des droits fondamentaux de l’homme et conformément au principe de loyauté ;

• Il est nécessaire de continuer à faire preuve d’attention et de vigilance ;

• Il convient d’améliorer la transparence et l’intelligibilité des systèmes d’IA, l’objectif .tant de permettre leur mise en œuvre  efficace ;

• Dans le cadre d’une approche globale basée sur  « Ethics by design » (éthique dès la conception), les systèmes d’IA doivent être conçus et développés de manière responsable ;

• Il convient de donner davantage de pouvoirs à chaque personne et d’encourager l’exercice des droits individuels, tout en créant des opportunités de participation publique, Il convient de réduire et d’atténuer les préjugés ou les discriminations illicites.

Par ailleurs, pour participer à la création d’une gouvernance commune future au niveau international et mieux définir l’orientation qui accompagnera ces principes d’éthique et de protection des données en matière d’IA, la 40e Conférence internationale des commissaires. la protection des données et de la vie privée a établi un groupe de travail permanent dont la mission sera de relever les défis associés au développement de l’intelligence artificielle.

Ce groupe de travail sera chargé de favoriser la compréhension et le respect des principes de la résolution par toutes les parties concernées impliquées dans le développement des systèmes d’intelligence artificielle, y compris les gouvernements et les autorités publiques, les organismes de normalisation, les concepteurs de systèmes d’intelligence artificielle, les prestataires et les chercheurs, les entreprises, les citoyens et les utilisateurs finaux de ces systèmes.

DIP 14 : lutter contre la discrimination et les biais

Recommandations

• Mettre en œuvre  une association de place afin de surveiller dans la durée les nouveaux usages de l’IA et l’utilisation de nouvelles sources de données dans le secteur financier ;

• Disposer d’outils de contrôles et de gouvernance au sein des entreprises afin de s’assurer. la fois de la fidélité (la bonne transmission des connaissances quant au fonctionnement de l’algorithme) et de l’homogénéité (l’algorithme fait bien ce pour quoi il est programmé) des algorithmes ;

• Avoir des protocoles de test des algorithmes afin de détecter les potentiels biais avant qu’ils ne soient mis en production;

• Mettre en place un outil de suivi des risques qui permet :

• une analyse en amont au cas par cas de « type risque » ;

• d’identifier. la sortie de la solution qu’elle se prémunit bien des biais trouvés dans l’analyse;

• à surveillance continue des résultats produits (approche statistique/sociale), en particulier sur les populations à risque ;

• S’assurer de la diversité et de l’interdisciplinarité des profils des concepteurs,développeurs d’algorithmes pour éviter des biais cognitifs.

DIP 15 : expliquer et auditer l’IA

Pistes de résolution et recommandations

Il est nécessaire de proposer de nouvelles approches d’ingénierie de l’algorithme pour le développement des nouvelles générations d’algorithmes d’IA. En effet, il faudra prouver que, par construction m.me, ces algorithmes sont :

• Transparents, contribuant à leur explicabilité et à la traçabilité de leur raisonnement. En effet, la tendance étant que l’ explicabilité d’un modèle est une métrique primordiale au même titre que la performance et la robustesse, un bon compromis entre explicabilité et précision est de plus en plus nécessaire. Cela pourrait être la clé pour rendre les algorithmes aussi transparents que possible pour les utilisateurs finaux.

• Responsables, garantissant leur conformité aux lois, normes, réglementations et/ou. certaines valeurs de notre société.

• Contrôlables, intégrant dans le processus de fonctionnement une traçabilité des actions, des restitutions, des feed-back des utilisateurs et des systèmes ainsi qu’un processus d’alerte en cas de dérive et de maintenance systématique pour anticiper les divergences potentielles du système ou de son environnement de fonctionnement. Ces algorithmes doivent constituer une chaîne du traitement de la donnée maîtrisée (DIP 16) de la collecte à l’exploitation.

DIP 16 : collecter, qualifier, exploiter et partager les données et les connaissances

Pistes de résolution et recommandations

Les solutions de gestion de la qualité des données (Data Quality Management) ne doivent pas être exclusivement basées sur la gestion informatique de la donnée, car elles doivent améliorer les processus décisionnels visés. Avant toute mesure de mise en œuvre , il est important de définir les objectifs et usages des données à traiter en fonction des enjeux selon le principe du « fitness for use » : dans certains cas, une tolérance à l’erreur est acceptable (comme des systèmes de recommandation d’achat en B2C) alors que dans d’autres (comme les systèmes critiques ayant un impact juridique, médical, financier…),l’ensemble du système d’information devra être traité avec la plus grande rigueur. Il s’agit donc d’une problématique liée au domaine métier et à l’usage :

• en amont, il faut que les producteurs de données deviennent des sources qualifiées, voire certifiées. On parle alors de cotation des sources ;

• en aval, il s’agit de fournir aux utilisateurs tous les éléments utiles afin qu’ils puissent en faire un usage pertinent et durable. Ensuite, il est nécessaire de distinguer de manière automatique les données pertinentes du bruit, d’identifier la crédibilité et la légitimité du producteur de la donnée et de garantir son actualisation et sa mise à jour.

Si les humains n’éprouvent pas de réelles difficultés à résoudre les ambiguïtés de langage, il n’en est pas de même pour les systèmes numériques qui ont besoin de contextes sémantiquement explicites. Étant une représentation formelle des connaissances d’un domaine, les ontologies ou les graphes conceptuels permettent la définition d’un langage commun entre l’usager et un expert métier. Cependant, la représentation choisie a besoin d’être constamment adaptée pour notamment être réutilisée et répondre à de nouveaux usages tout en garantissant la préservation de la consistance lors de toute modification. Pour répondre aux enjeux décrits ci-dessus, les outils mis en œuvre sont les technologies de traitement de langage naturel, les technologies du web sémantique et de l’ OBDM (ontology-based data management), la traduction par approche statistique ou avec apprentissage (neural machine translation) et plus généralement les technologies de gestion des connaissances. Pour la traduction automatique, il est important de favoriser la mise à disposition de grandes bases de contenus annotés et traduits, facteur essentiel pour la performance de ces systèmes. En particulier, il faut soutenir les avancées dans les technologies de traitement du langage naturel, notamment en produisant des corpus partagés pour les métiers de la finance, de l’assurance et de l’ asset management.

Enfin, mener des expériences mêlant approche sémantique pour la gestion des connaissances et apprentissage sur des contenus textuels, structurés ou non, peut permettre de réduire les ambiguïtés conceptuelles terminologiques au travers de mécanismes de raisonnement.

On s’attend à voir émerger des produits verticaux sur certains domaines métier : par exemple sur la performance des fonds financiers, la production automatique de contrats, la préparation d’entretien, l’analyse de performance d’un réseau, etc. Pour cela, casser les silos permettra de fluidifier les échanges par un partage efficace des données et des connaissances, ce qui favorisera l’agilité. Pour favoriser la collaboration et le partage entre acteurs de disciplines différentes, la mise à jour des bases de données hétérogènes, des outils de capitalisation des connaissances et des algorithmes de corrélation et de fusion sémantique sont alors incontournables. Enfin, la représentation et la visualisation des données et des connaissances doivent être intelligibles pour un acteur non expert en IA. Les résultats produits doivent ainsi faire l’objet de traitements spécifiques, appels post-traitements,dont le but est d’expliquer (voir DIP 15), d’interpréter et de traduire ces résultats sous forme de synthèses, graphiques, rapports…

DIP 17 : intégrer l’IA dans le SI

Piste de résolution et recommandations

Pour répondre aux difficultés précédemment soulevées, les recommandations suivantes peuvent être mises en place :

• Pour ce qui est de la collaboration entre les métiers et la DSI, il est nécessaire que la DSI se positionne dans une approche partenariale forte avec les métiers qu’elle doit accompagner de façon très pédagogique, l’objectif étant de démontrer qu’un SI cognitif centralisé. Est incontournable. Nous pourrons par exemple noter comme services offerts par la DSI aux métiers : des formations d’acculturation à la Data Science, à l’IA, aux solutions du marché, des benchmarks, des ateliers de codesign, des rencontres avec d’autres entreprises d’autres secteurs, etc. ;

• En suivant l’exemple du groupe Schneider Electric, il est nécessaire pour les grands groupes ou industries de créer un Comité Numérique au sein de leur Conseil d’Administration.

• Pour ce qui est des données et connaissances, il est nécessaire pour l’entreprise de continuer à briser les silos afin de fournir des données uniques, riches et pertinentes aux métiers. Au-delà De la donnée structurée, il sera nécessaire de se focaliser sur les données non-structurées (textes, documents, images, etc.) par la création de bases graphs centralisées exploitables par des moteurs de recherche sémantique ou des assistants virtuels intelligents.

• Finalement, pour ce qui est de l’urbanisation et du delivery spécifiques, la DSI pourra identifier une urbanisation multicouche: couche applicative interne (Outlook, CRM, etc.), couche IA on-premise avec orchestration et couche IA externe (avec anonymisation éventuelle) se connectant aux solutions Cloud du marché. ou autres partenaires via API. Ce type de modèle pourra garantir la sécurité des données et répondre aux exigences réglementaires du marché.

• Pour la maintenance des solutions d’IA, le SI pourra inclure des systèmes de supervision garants de la robustesse des algorithmes apprenants.

DIP 18 : prévenir les cyber-risques en couplant IA et cyber-sécurité

Pistes de résolution et recommandations

Les méthodes d’apprentissage automatique ainsi que les techniques de fusion sémantique permettant la corrélation de données et de connaissances apparaissent ici comme le candidat de choix permettant de rendre intelligible des évènements de sécurité complexes, dont l’interprétation n’est permise que par la « digestion » de grandes quantités de données émanant de ces multiples capteurs. Cette analyse permet à la fois d’intégrer des indices de compromission faibles jusqu’ici ignorés et de créer une cohérence dans la multitude des signaux analysés permettant d’améliorer l’efficacité de détection. Outre une confiance accrue dans la détection (réduction des faux positifs/négatifs), l’IA permet aussi d’enrichir le diagnostic – et non plus seulement de lever des alarmes – par une analyse prédictive afin d’offrir de plus larges marges de manœuvre quant à l’action à entreprendre face à l’évènement détecté.

Dans le contexte embarqué, comme pour celui des puces, l’accélération matérielle d’opérations de classification par rapport à un modèle d’apprentissage permet une détection en temps réel d’évènements anormaux telle une attaque cyberphysique. Cette détection d’attaque à faible latence peut s’avérer cruciale lorsque l’intégrité d’informations boursières est mise à mal. La détection et la réaction doivent être effectives en quelques nanosecondes, ce qui est l’apanage des accélérateurs matériels. L’intelligence artificielle embarquée se doit d’être tout à la fois légère et de confiance. En complément de l’établissement de nécessaires capacités de résilience et de l’analyse de flux renforcé par les méthodes d’apprentissage automatique au niveau des couches réseaux et des couches supérieures, il devient nécessaire de développer des méthodes de détection en temps réel au niveau des couches les plus profondes des systèmes d’information (couches matérielles). L’objectif est alors de circonscrire la menace en son cœur avant que les effets néfastes ne se fassent sentir et de prendre l’avantage sur l’attaquant en adaptant dynamiquement les politiques de sécurité. (défensive, analytique, déception, offensive) en fonction de l’anatomie de l’attaque. Dans le contexte IT, même si l’usage de l’IA au service de la cybersécurité. est aujourd’hui centré sur l’identification des vulnérabilités d’un système et la détection de comportement anormal pour détecter des attaques, cela reste encore une démarche réactive. Il est nécessaire d’aller vers une cybersécurité proactive offrant des mécanismes automatiques d’anticipation, voire vers une cybersécurité prescriptive permettant l’automatisation de confinement d’une attaque ou des solutions de résilience prenant en compte l’impact de l’attaque et le coup de la remise en l’état.

Enfin, il convient de travailler sur la cybersécurité. des composants/systèmes qui embarquent de l’IA et sur d’éventuelles cyberattaques pouvant elles-mêmes être basées sur des techniques d’IA. Cela pose en particulier pour les IA à base de machine learning les questions de la qualité. de la base d’apprentissage (DIP 16) et de la robustesse vis-à-vis d’approches telles l’ adversarial machine learning.