Intelligence artificielle et directions financières : un duo complémentaire ? par Ouafa M'Hamed, Chef de produit Financial Automation chez Quadient.
Les directions financières gèrent au quotidien des données à la fois sensibles et stratégiques. Permettre à une intelligence artificielle de les exploiter pourrait sembler risqué.. A l'heure où les algorithmes sont en passe de devenir incontournables dans les prises de décision en entreprise, comment les directions financières peuvent-elles en tirer le meilleur parti ? A quel(s) risque(s) ?
Algorithmes en finance : éthique et gouvernance au programme
En se positionnant comme un outil puissant d'aide à la décision, l'IA se révèle être un allié très attractif, qui vient accélérer les phases d'analyse et permet aux directions financières d'adopter une position plus stratégique. Nombreuses sont les directions financières qui ont compris que les algorithmes étaient un soutien majeur et fiable tant pour l'accélération des processus internes, que pour les prévisions de croissance. Automatisation des tâches répétitives, diminution du temps de recherche et d'analyse des données, suppression des risques d'erreur.. les algorithmes sont déjà indispensables à la transformation digitale des entreprises. Ils permettent aux DAF d'identifier et de saisir de vraies opportunités pour actionner des leviers de rentabilité, de cash management, d'efficacité et de productivité.
Mais ces bénéfices – aussi indéniables soient-ils – ne peuvent se faire au détriment de la sécurité et de la pérennité de l'entreprise. En tant que membre-clé d'une équipe de direction, le DAF doit veiller, aux côtés de ses homologues, à ce que les systèmes embarquant de l'IA mis en place au sein de l'organisation garantissent le respect des engagements pris auprès des clients, du point de vue légal et sécuritaire bien sûr, mais aussi par rapport aux valeurs de l'entreprise. L'intelligence artificielle repose sur la création et l'application d'algorithmes qui, lorsqu'ils sont exécutés, viennent imiter les modes de pensée et d'action des êtres humains dans le but de les automatiser, les accélérer ou les anticiper. Exécutés dans un environnement informatique sécurisé et maîtrisé, les algorithmes sont un outil extrêmement efficace et précieux, à condition que la loi, la sécurité, l'éthique et la déontologie soient au cœur de leur cadre d'utilisation.
Intelligence artificielle : des garde-fous règlementaires nécessaires
Il existe souvent un décalage entre l'avènement d'une innovation et son cadre réglementaire. En la matière, l'intelligence artificielle ne fait pas exception. Alors que les outils basés sur des algorithmes d'IA générative comme chat-GPT ou DALL-E se démocratisent, un projet de règlementation de l'IA a été déposé par la Commission européenne. L'IA Act devrait être adopté d'ici la fin de l'année 2023. Son objectif ? Réduire les risques associés à l'usage et à la commercialisation de cette nouvelle forme d'intelligence artificielle, extrêmement riche et prometteuse, que l'on commence seulement à explorer. Cela concerne notamment la protection des données, les questions de transparence et de fiabilité de l'information, mais aussi les problématiques de sécurité et d'éthique.
Plus concrètement, certains usages devraient être interdits, car contraires aux droits fondamentaux de l'Union européenne : l'exploitation des personnes vulnérables, l'identification biométrique à distance, les systèmes de score social, ou encore les techniques subliminales. En fonction de leur degré de risque, d'autres pratiques seront encadrées, et les contenus générés par une IA devront obligatoirement être signalés comme tels. Pour les services financiers, cela impliquerait notamment un contrôle renforcé quant à la documentation, la transparence et la sécurité des données, tant pour les fournisseurs, utilisateurs, distributeurs et autres tiers. L'IA Act va ainsi plus loin que le règlement général pour la protection des données, car il vient garantir le respect des exigences RGPD par les nouvelles technologies génératives.
Afin de rester cohérent par rapport aux évolutions technologiques, l'IA Act sera révisé deux fois par an.
Maitriser le système pour maitriser l'IA
Dans l'univers financier, cette nouvelle loi viendra encadrer des pratiques déjà existantes, car de nombreuses technologies d'automatisation des processus financiers s'appuient déjà sur l'intelligence artificielle, et ce depuis de nombreuses années. Le machine learning, l'analyse prédictive, l'analyse de crédit, sont au cœur des outils les plus performants de contrôle et d'aide à la décision dans les directions financières. L'IA Act devrait lever les dernières réticences lorsqu'il s'agit de confier des tâches directement à un logiciel doté de capacités d'IA. Dans les entreprises en général et dans les directions financières en particulier, les algorithmes d'intelligence artificielle n'évoluent que dans des systèmes cloisonnés, sécurisés et maitrisés : les données sont fiables et les analyses proposées ou les tâches exécutées par l'IA le sont tout autant. Surtout, l'humain reste au coeur des processus de prise de décision critiques. Les algorithmes sont écrits pour se coller aux règles et cadres prédéfinis inhérents à toute direction financière, et uniquement exploités dans l'environnement protégé de l'entreprise. Soutien aux équipes et accélérateur de productivité : l'IA s'impose ainsi comme un assistant virtuel fiable et incontournable que les DAF ont tout intérêt à intégrer dans leurs organisations et processus.
Utilisons l'IA pour ce qu'elle est : une machine puissante pour agréger les données, résoudre les problèmes et proposer des alternatives pertinentes. Car c'est bien toujours le directeur financier qui prend la décision finale. Au sein des entreprises et des directions financières, mobilisons ainsi l'intelligence humaine dans ses dimensions de compréhension de l'environnement, de prise de décisions stratégiques et de responsabilité éthique. Cette complémentarité est une opportunité majeure pour les métiers financiers !
0 Commentaire