REVUE SYSTÉMATIQUE

Front. Artif. Intell.

Sec. Apprentissage Machine et Intelligence Artificielle

Volume 8 – 2025 |
doi: 10.3389/frai.2025.1526221

Accepté provisoirement

  • Université Sol Plaatje, Kimberley, Afrique du Sud

La version finale et formatée de l’article sera bientôt publiée.

    Face à la montée des menaces cybernétiques sophistiquées, les Systèmes de Détection d’Intrusions (IDS) ont connu des progrès significatifs, essentiels pour identifier et atténuer les violations de sécurité en temps réel. Les IDS traditionnels s’appuient souvent sur des algorithmes d’apprentissage automatique complexes, mais manquent de transparence, créant ainsi un effet de “boîte noire” qui peut compliquer la compréhension des processus décisionnels des analystes. L’Intelligence Artificielle Explicable (XAI) constitue une solution prometteuse en offrant une meilleure interprétabilité et transparence, permettant aux professionnels de la sécurité de mieux comprendre, faire confiance et optimiser les modèles d’IDS. Cet article présente une revue systématique de l’intégration de la XAI dans les IDS, mettant l’accent sur l’amélioration de la transparence et de l’interprétabilité en matière de cybersécurité. Grâce à une analyse exhaustive des études récentes, cette revue identifie les techniques de XAI les plus couramment utilisées, évalue leur efficacité dans les cadres des IDS et examine leurs avantages et leurs limites. Les résultats indiquent que les modèles XAI basés sur des règles et des arbres sont privilégiés pour leur interprétabilité, bien que des compromis avec la précision de détection demeurent difficiles. De plus, la revue souligne des lacunes critiques en matière de standardisation et de scalabilité, insistant sur le besoin de modèles hybrides et d’explicabilité en temps réel. L’article conclut par des recommandations pour de futures directions de recherche, suggérant des améliorations des techniques de XAI adaptées aux IDS, des métriques d’évaluation normalisées et des cadres éthiques privilégiant la sécurité et la transparence. Cette revue vise à informer les chercheurs et les praticiens sur les tendances actuelles et les opportunités futures d’exploitation de la XAI pour améliorer l’efficacité des IDS, favorisant ainsi un paysage de cybersécurité plus transparent et résilient.

    Mots-clés :
    Systèmes de détection d’intrusions, menaces cybernétiques, Intelligence artificielle explicable, Revue systématique, explicabilité des modèles, interprétabilité des modèles, apprentissage automatique

    Reçu :
    11 nov. 2024 ;
    Accepté :
    09 janv. 2025.

    Copyright :
    © 2025
    Mohale et Obagbuwa. Cet article est une œuvre en libre accès diffusée sous les termes de la Licence d’Attribution Creative Commons (CC BY). L’utilisation, la distribution ou la reproduction dans d’autres forums est permise, à condition que les auteur(e)s ou licenciés d’origine soient crédité(e)s et que la publication originale dans cette revue soit citée, conformément aux pratiques académiques acceptées. Aucun usage, distribution ou reproduction n’est permis sans respecter ces termes.

    * Correspondance :
    Ibidun Christiana Obagbuwa, Université Sol Plaatje, Kimberley, Afrique du Sud

    Avertissement :
    Les opinions exprimées dans cet article n’engagent que les auteurs et ne reflètent pas nécessairement celles de leurs organisations affiliées, ni celles de l’éditeur, des rédacteurs et des réviseurs. Toute évaluation d’un produit évoqué dans cet article ou toute affirmation faite par son fabricant n’est pas garantie ni endossée par l’éditeur.

    Points à retenir

    • Importance croissante des Systèmes de Détection d’Intrusions face à l’évolution des menaces cybernétiques.
    • Utilisation de l’Intelligence Artificielle Explicable pour fournir une meilleure transparence et compréhension des décisions des IDS.
    • Préférence pour les modèles basés sur des règles et des arbres en raison de leur interprétabilité, malgré les défis d’efficacité.
    • Besoin urgent de normalisation et d’approches hybrides pour améliorer la scalabilité des modèles.
    • Recommandations pour des recherches futures axées sur l’explicabilité en temps réel et des cadres éthiques.

    La question de la transparence dans la technologie de détection des intrusions est un enjeu crucial dans un monde où la cybersécurité devient de plus en plus complexe. Réfléchir aux implications des résultats de cette revue peut nous aider à anticiper les développements futurs de la XAI dans les systèmes de sécurité. Comment pouvons-nous nous assurer que ces systèmes restent compréhensibles et accessibles pour les professionnels de la sécurité tout en préservant leur efficacité ?



    • Source image(s) : www.frontiersin.org
    • Source : https://www.frontiersin.org/journals/artificial-intelligence/articles/10.3389/frai.2025.1526221/full


    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *