Agree to Disagree: Exploring Consensus of XAI Methods for ML-based NIDS
Die zunehmende Komplexit?t und H?ufigkeit von Cyberangriffen erfordert Network Intrusion Detection Systems (NIDS), die sich an die sich entwickelnden Bedrohungen anpassen k?nnen. Künstliche Intelligenz (KI), insbesondere maschinelles Lernen (ML), erfreut sich zunehmender Beliebtheit bei der Erkennung anspruchsvoller Angriffe. Ihr potenzieller Mangel an Interpretierbarkeit ist jedoch nach wie vor ein erhebliches Hindernis für ihre breite Anwendung in der Praxis, insbesondere in sicherheitssensiblen Bereichen. Als Reaktion darauf wurden verschiedene erkl?rbare KI-Methoden (XAI) vorgeschlagen, um Einblicke in den Entscheidungsprozess zu erm?glichen. In diesem Beitrag wird untersucht, ob diese XAI-Methoden, darunter SHAP, LIME, Tree Interpreter, Saliency, Integrated Gradients und DeepLIFT, ?hnliche Erkl?rungen liefern, wenn sie auf ML-NIDS angewendet werden. Durch die Analyse der ?bereinstimmung zwischen diesen Methoden über verschiedene Datens?tze und ML-Modelle hinweg untersuchen wir, ob es eine ?bereinstimmung gibt, die die praktische Einführung von XAI in der Cybersicherheit vereinfachen k?nnte, da ?hnliche Erkl?rungen die Notwendigkeit strenger Auswahlprozesse beseitigen würden. Unsere Ergebnisse zeigen einen unterschiedlichen Grad an ?bereinstimmung zwischen den Methoden, was darauf hindeutet, dass einige sehr ?hnlich sind, w?hrend andere erheblich voneinander abweichen, was die Notwendigkeit einer sorgf?ltigen Auswahl und Kombination von XAI-Tools zur Verbesserung der Vertrauenswürdigkeit in realen Anwendungen unterstreicht.Abstract: