Page 37 - DCG - La sécurité - 2025
P. 37
Dans les systèmes d’information :
• Assistants IA dans les logiciels de bureautique (résumés automatiques, rédaction prédictive).
• Automatisation de workflows dans les PGI.
• Aide à la maintenance prédictive de systèmes ou serveurs.
Enjeux liés à l’intelligence artificielle
Apports :
• Productivité accrue : automatisation de tâches répétitives.
• Réduction des erreurs humaines, standardisation des décisions.
• Aide à la décision grâce à l’analyse de gros volumes de données.
• Innovation dans les services rendus (chatbot, assistant IA, reconnaissance vocale...).
Enjeux et risques associés :
• Perte de transparence : les décisions des IA peuvent être opaques (effet boîte noire).
• Biais algorithmiques : si les données d’apprentissage sont biaisées, les décisions le seront aussi
(discrimination à l’embauche, inégalités de traitement).
• Remise en cause de certains emplois : automatisation de tâches comptables, juridiques, ou
administratives.
• Dépendance technologique : perte d’autonomie décisionnelle.
• Protection des données personnelles : l’IA traite des volumes massifs de données parfois
sensibles.
Enjeux d’audit des IA
Avec l’intégration croissante de l’IA dans les systèmes de gestion, les missions d’audit doivent évoluer.
L’auditeur ne se contente plus de vérifier des règles fixes : il doit évaluer un modèle d’apprentissage
dynamique, parfois non transparent.
Objectifs de l’audit d’une IA :
• Traçabilité des décisions automatisées : pouvoir retracer les règles, paramètres et données à
l’origine d’un résultat.
• Évaluation des données d’apprentissage : qualité, représentativité, absence de biais.
• Vérification du cadre légal : conformité avec le RGPD, le futur AI Act européen, etc.
• Documentation technique et fonctionnelle : garantir que le fonctionnement de l’IA est compris
et justifiable.
• Analyse des impacts métier : risques de discrimination, erreurs de décision ou dépendance.
Points de vigilance :
• Les IA auto-apprenantes peuvent évoluer sans supervision si mal encadrées.
• Il peut exister des dérives algorithmiques non repérées sans audits réguliers.
• Les parties prenantes doivent être formées pour comprendre les résultats fournis par l’IA et les
remettre en question.
Page 33 sur 42