論文の概要: Explainable Artificial Intelligence and Cybersecurity: A Systematic
Literature Review
- arxiv url: http://arxiv.org/abs/2303.01259v1
- Date: Mon, 27 Feb 2023 17:47:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-03 14:22:16.688825
- Title: Explainable Artificial Intelligence and Cybersecurity: A Systematic
Literature Review
- Title(参考訳): 説明可能な人工知能とサイバーセキュリティ:システム文献レビュー
- Authors: Carlos Mendes and Tatiane Nogueira Rios
- Abstract要約: XAIは、ユーザーと開発者にとってAIアルゴリズムの操作をより解釈可能にすることを目的としている。
本研究は,サイバーセキュリティに適用されたXAI研究シナリオについて検討する。
- 参考スコア(独自算出の注目度): 0.799536002595393
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Cybersecurity vendors consistently apply AI (Artificial Intelligence) to
their solutions and many cybersecurity domains can benefit from AI technology.
However, black-box AI techniques present some difficulties in comprehension and
adoption by its operators, given that their decisions are not always humanly
understandable (as is usually the case with deep neural networks, for example).
Since it aims to make the operation of AI algorithms more interpretable for its
users and developers, XAI (eXplainable Artificial Intelligence) can be used to
address this issue. Through a systematic literature review, this work seeks to
investigate the current research scenario on XAI applied to cybersecurity,
aiming to discover which XAI techniques have been applied in cybersecurity, and
which areas of cybersecurity have already benefited from this technology.
- Abstract(参考訳): サイバーセキュリティベンダーは一貫してAI(Artificial Intelligence)をソリューションに適用し、多くのサイバーセキュリティドメインはAI技術から恩恵を受けることができる。
しかし、ブラックボックスのai技術は、その決定が常に人間に理解できるとは限らない(例えばディープニューラルネットワークの場合のように)ため、そのオペレーターによる理解と採用にいくつかの困難をもたらしている。
XAI(eXplainable Artificial Intelligence)は、AIアルゴリズムの操作をよりユーザや開発者にとって解釈可能にするため、この問題に対処するために使用できる。
本研究は,サイバーセキュリティに適用されているxaiの現在の研究シナリオを調査し,サイバーセキュリティにおいてどのようなxai技術が適用されているのか,サイバーセキュリティのどの分野が既にこの技術から恩恵を受けているのかを明らかにすることを目的としている。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Explainable AI-based Intrusion Detection System for Industry 5.0: An Overview of the Literature, associated Challenges, the existing Solutions, and Potential Research Directions [3.99098935469955]
産業5.0は、製造において様々なタスクを実行するための人間と人工知能(AI)の協力に焦点を当てている。
これらのデバイスと、経済、健康、教育、防衛システムなど、さまざまな重要な分野における相互接続の巨大な関与は、いくつかの潜在的なセキュリティ欠陥を引き起こしている。
XAIは、侵入検知、マルウェア検出、フィッシング検出など、さまざまなサイバーセキュリティ分野において、非常に効果的で強力なツールであることが証明されている。
論文 参考訳(メタデータ) (2024-07-21T09:28:05Z) - Artificial Intelligence as the New Hacker: Developing Agents for Offensive Security [0.0]
本稿では,人工知能(AI)の攻撃的サイバーセキュリティへの統合について検討する。
サイバー攻撃をシミュレートし実行するために設計された、自律的なAIエージェントであるReaperAIを開発している。
ReaperAIは、セキュリティ脆弱性を自律的に識別し、悪用し、分析する可能性を実証する。
論文 参考訳(メタデータ) (2024-05-09T18:15:12Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - A Survey on Explainable Artificial Intelligence for Cybersecurity [14.648580959079787]
説明可能な人工知能(XAI)は、決定と行動に対して明確かつ解釈可能な説明を提供する機械学習モデルを作成することを目的としている。
ネットワークサイバーセキュリティの分野では、XAIは、サイバー脅威の振る舞いをよりよく理解することで、ネットワークセキュリティへのアプローチ方法に革命をもたらす可能性がある。
論文 参考訳(メタデータ) (2023-03-07T22:54:18Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - XAI for Cybersecurity: State of the Art, Challenges, Open Issues and
Future Directions [16.633632244131775]
AIモデルは、開発者が特定の決定の背後にある理由の説明や追跡ができないブラックボックスとして現れることが多い。
説明可能なAI(XAI)は、情報を抽出し、結果を視覚化するのに役立つ、急速に成長する研究分野である。
本報告では,サイバーセキュリティと攻撃形態について概説する。
次に、従来のAI技術の使用とその関連する課題について議論し、様々なアプリケーションでXAIを使用するための扉を開く。
論文 参考訳(メタデータ) (2022-06-03T02:15:30Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。