Page 37 - DCG - La sécurité - 2025
P. 37

Dans les systèmes d’information :




                   •  Assistants IA dans les logiciels de bureautique (résumés automatiques, rédaction prédictive).
                   •  Automatisation de workflows dans les PGI.
                   •  Aide à la maintenance prédictive de systèmes ou serveurs.

        Enjeux liés à l’intelligence artificielle


                 Apports :
                   •  Productivité accrue : automatisation de tâches répétitives.
                   •  Réduction des erreurs humaines, standardisation des décisions.
                   •  Aide à la décision grâce à l’analyse de gros volumes de données.
                   •  Innovation dans les services rendus (chatbot, assistant IA, reconnaissance vocale...).
                 Enjeux et risques associés :


                   •  Perte de transparence : les décisions des IA peuvent être opaques (effet boîte noire).
                   •  Biais algorithmiques : si les données d’apprentissage sont biaisées, les décisions le seront aussi
                       (discrimination à l’embauche, inégalités de traitement).
                   •  Remise  en  cause  de  certains  emplois  :  automatisation de tâches  comptables,  juridiques,  ou
                       administratives.
                   •  Dépendance technologique : perte d’autonomie décisionnelle.
                   •  Protection  des  données  personnelles  :  l’IA  traite  des  volumes  massifs  de  données  parfois
                       sensibles.

        Enjeux d’audit des IA

               Avec l’intégration croissante de l’IA dans les systèmes de gestion, les missions d’audit doivent évoluer.
               L’auditeur ne se contente plus de vérifier des règles fixes : il doit évaluer un modèle d’apprentissage
               dynamique, parfois non transparent.
               Objectifs de l’audit d’une IA :
                   •  Traçabilité des décisions automatisées : pouvoir retracer les règles, paramètres et données à
                       l’origine d’un résultat.
                   •  Évaluation des données d’apprentissage : qualité, représentativité, absence de biais.
                   •  Vérification du cadre légal : conformité avec le RGPD, le futur AI Act européen, etc.
                   •  Documentation technique et fonctionnelle : garantir que le fonctionnement de l’IA est compris
                       et justifiable.
                   •  Analyse des impacts métier : risques de discrimination, erreurs de décision ou dépendance.
               Points de vigilance :
                   •  Les IA auto-apprenantes peuvent évoluer sans supervision si mal encadrées.
                   •  Il peut exister des dérives algorithmiques non repérées sans audits réguliers.
                   •  Les parties prenantes doivent être formées pour comprendre les résultats fournis par l’IA et les
                       remettre en question.







                                                                                                      Page 33 sur 42
   32   33   34   35   36   37   38   39   40   41   42