論文の概要: Enhancing IoMT Security with Explainable Machine Learning: A Case Study on the CICIOMT2024 Dataset
- arxiv url: http://arxiv.org/abs/2509.10563v1
- Date: Wed, 10 Sep 2025 09:17:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:22.66933
- Title: Enhancing IoMT Security with Explainable Machine Learning: A Case Study on the CICIOMT2024 Dataset
- Title(参考訳): 説明可能な機械学習によるIoMTセキュリティの強化:CICIOMT2024データセットを事例として
- Authors: Mohammed Yacoubi, Omar Moussaoui, C. Drocourt,
- Abstract要約: 説明可能な人工知能(XAI)は、AIモデルの透明性と解釈可能性を高める。
サイバーセキュリティ、特にIoMT(Internet of Medical Things)では、AIによる脅威検出のブラックボックスの性質が大きな課題となっている。
本研究は,IoMT環境におけるサイバー攻撃分類のための2つのアンサンブル学習手法,バッグングとブースティングを比較した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable Artificial Intelligence (XAI) enhances the transparency and interpretability of AI models, addressing their inherent opacity. In cybersecurity, particularly within the Internet of Medical Things (IoMT), the black-box nature of AI-driven threat detection poses a significant challenge. Cybersecurity professionals must not only detect attacks but also understand the reasoning behind AI decisions to ensure trust and accountability. The rapid increase in cyberattacks targeting connected medical devices threatens patient safety and data privacy, necessitating advanced AI-driven solutions. This study compares two ensemble learning techniques, bagging and boosting, for cyber-attack classification in IoMT environments. We selected Random Forest for bagging and CatBoost for boosting. Random Forest helps reduce variance, while CatBoost improves bias by combining weak classifiers into a strong ensemble model, making them effective for detecting sophisticated attacks. However, their complexity often reduces transparency, making it difficult for cybersecurity professionals to interpret and trust their decisions. To address this issue, we apply XAI models to generate local and global explanations, providing insights into AI decision-making. Using techniques like SHAP (Shapley Additive Explanations) and LIME (Local Interpretable Model-agnostic Explanations), we highlight feature importance to help stakeholders understand the key factors driving cyber threat detection.
- Abstract(参考訳): 説明可能な人工知能(XAI)は、AIモデルの透明性と解釈可能性を高め、その固有の不透明性に対処する。
サイバーセキュリティ、特にIoMT(Internet of Medical Things)では、AIによる脅威検出のブラックボックスの性質が大きな課題となっている。
サイバーセキュリティの専門家は、攻撃を検出するだけでなく、信頼と説明責任を確保するためのAI決定の背後にある理由を理解する必要がある。
接続された医療機器をターゲットにしたサイバー攻撃の急速な増加は、患者の安全とデータのプライバシーを脅かし、高度なAI駆動ソリューションを必要としている。
本研究は,IoMT環境におけるサイバー攻撃分類のための2つのアンサンブル学習手法,バッグングとブースティングを比較した。
我々は、荷物にランダムフォレストを、増援にキャットブースを選定した。
ランダムフォレストは分散を減らすのに役立ち、CatBoostは弱い分類器を強力なアンサンブルモデルに組み合わせることでバイアスを改善し、洗練された攻撃を検出するのに効果的である。
しかし、その複雑さはしばしば透明性を低下させ、サイバーセキュリティの専門家が彼らの決定を解釈し、信頼することを難しくする。
この問題に対処するために、XAIモデルをローカルおよびグローバルな説明の生成に適用し、AI意思決定に関する洞察を提供する。
SHAP (Shapley Additive Explanations) や LIME (Local Interpretable Model-Agnostic Explanations) といった手法を用いることで、ステークホルダーがサイバー脅威検出の鍵となる要因を理解するのに役立つ機能の重要性を強調した。
関連論文リスト
- Towards Explainable and Lightweight AI for Real-Time Cyber Threat Hunting in Edge Networks [0.0]
本研究では,エッジネットワークにおけるリアルタイムサイバー脅威検出のために設計された,説明可能な軽量AI(ELAI)フレームワークを紹介する。
我々の手法は、解釈可能な機械学習アルゴリズムと最適化された軽量ディープラーニング技術を統合し、透明性と計算効率の両立を保証する。
我々は、CICIDSやUNSW-NB15などのベンチマークサイバーセキュリティデータセットを用いてELAIを評価し、多様なサイバー攻撃シナリオでその性能を評価する。
論文 参考訳(メタデータ) (2025-04-18T23:45:39Z) - Cyber Defense Reinvented: Large Language Models as Threat Intelligence Copilots [36.809323735351825]
CYLENSは、大規模言語モデル(LLM)を利用したサイバー脅威情報通信システムである。
CYLENSは、脅威管理ライフサイクル全体を通じてセキュリティ専門家を支援するように設計されている。
脅威帰属、文脈化、検出、相関、優先順位付け、修復をサポートする。
論文 参考訳(メタデータ) (2025-02-28T07:16:09Z) - Computational Safety for Generative AI: A Signal Processing Perspective [65.268245109828]
計算安全性は、GenAIにおける安全性の定量的評価、定式化、研究を可能にする数学的枠組みである。
ジェイルブレイクによる悪意のあるプロンプトを検出するために, 感度解析と損失景観解析がいかに有効かを示す。
我々は、AIの安全性における信号処理の鍵となる研究課題、機会、そして重要な役割について論じる。
論文 参考訳(メタデータ) (2025-02-18T02:26:50Z) - Artificial Intelligence as the New Hacker: Developing Agents for Offensive Security [0.0]
本稿では,人工知能(AI)の攻撃的サイバーセキュリティへの統合について検討する。
サイバー攻撃をシミュレートし実行するために設計された、自律的なAIエージェントであるReaperAIを開発している。
ReaperAIは、セキュリティ脆弱性を自律的に識別し、悪用し、分析する可能性を実証する。
論文 参考訳(メタデータ) (2024-05-09T18:15:12Z) - A Survey on Explainable Artificial Intelligence for Cybersecurity [14.648580959079787]
説明可能な人工知能(XAI)は、決定と行動に対して明確かつ解釈可能な説明を提供する機械学習モデルを作成することを目的としている。
ネットワークサイバーセキュリティの分野では、XAIは、サイバー脅威の振る舞いをよりよく理解することで、ネットワークセキュリティへのアプローチ方法に革命をもたらす可能性がある。
論文 参考訳(メタデータ) (2023-03-07T22:54:18Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Adversarial Interaction Attack: Fooling AI to Misinterpret Human
Intentions [46.87576410532481]
現在の大きな成功にもかかわらず、ディープラーニングベースのAIシステムは、微妙な敵対的ノイズによって容易に騙されることを示した。
骨格に基づくヒトの相互作用のケーススタディに基づき、相互作用に対する新しい敵対的攻撃を提案する。
本研究では、安全クリティカルなアプリケーションにAIシステムをデプロイする際に慎重に対処する必要があるAIと人間との相互作用ループにおける潜在的なリスクを強調します。
論文 参考訳(メタデータ) (2021-01-17T16:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。