論文の概要: XAI-CF -- Examining the Role of Explainable Artificial Intelligence in
Cyber Forensics
- arxiv url: http://arxiv.org/abs/2402.02452v2
- Date: Wed, 7 Feb 2024 09:00:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 18:46:13.503857
- Title: XAI-CF -- Examining the Role of Explainable Artificial Intelligence in
Cyber Forensics
- Title(参考訳): XAI-CF -- サイバー犯罪捜査における説明可能な人工知能の役割を考察する
- Authors: Shahid Alam and Zeynep Altiparmak
- Abstract要約: Cyber Forensics(CF)は多くの新しい課題に直面している。
この大量のデータを掘り下げて意味を成すには、人工知能(AI)の分野のような新しい技術が必要である。
CFにAIをうまく適用したいのであれば、AIシステムへの信頼を深める必要がある。
説明可能なAI(XAI)システムは、CFにおいてこの役割を果たすことができ、そのようなシステムをXAI-CFと呼ぶ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the rise of complex cyber devices Cyber Forensics (CF) is facing many
new challenges. For example, there are dozens of systems running on
smartphones, each with more than millions of downloadable applications. Sifting
through this large amount of data and making sense requires new techniques,
such as from the field of Artificial Intelligence (AI). To apply these
techniques successfully in CF, we need to justify and explain the results to
the stakeholders of CF, such as forensic analysts and members of the court, for
them to make an informed decision. If we want to apply AI successfully in CF,
there is a need to develop trust in AI systems. Some other factors in accepting
the use of AI in CF are to make AI authentic, interpretable, understandable,
and interactive. This way, AI systems will be more acceptable to the public and
ensure alignment with legal standards. An explainable AI (XAI) system can play
this role in CF, and we call such a system XAI-CF. XAI-CF is indispensable and
is still in its infancy. In this paper, we explore and make a case for the
significance and advantages of XAI-CF. We strongly emphasize the need to build
a successful and practical XAI-CF system and discuss some of the main
requirements and prerequisites of such a system. We present a formal definition
of the terms CF and XAI-CF and a comprehensive literature review of previous
works that apply and utilize XAI to build and increase trust in CF. We discuss
some challenges facing XAI-CF. We also provide some concrete solutions to these
challenges. We identify key insights and future research directions for
building XAI applications for CF. This paper is an effort to explore and
familiarize the readers with the role of XAI applications in CF, and we believe
that our work provides a promising basis for future researchers interested in
XAI-CF.
- Abstract(参考訳): 複雑なサイバーデバイスの増加に伴い、Cyber Forensics(CF)は多くの新しい課題に直面している。
たとえば、スマートフォン上で動くシステムは数十あり、それぞれに何百万ものダウンロード可能なアプリケーションがある。
この大量のデータを掘り下げて意味を持たせるには、AI(Artificial Intelligence)の分野のような新しい技術が必要である。
これらの手法をcfでうまく適用するには、法医学アナリストや裁判所のメンバーといったcfの利害関係者に対して、インフォームドな判断を行うために、結果を正当化し、説明する必要があります。
CFにAIをうまく適用したいのであれば、AIシステムへの信頼を深める必要がある。
CFにおけるAIの使用を受け入れるその他の要因は、AIを真正、解釈可能、理解可能、インタラクティブなものにすることだ。
こうすることで、AIシステムは一般大衆に受け入れられ、法的基準との整合性を確保することができる。
説明可能なAI(XAI)システムは、CFにおいてこの役割を果たすことができ、そのようなシステムをXAI-CFと呼ぶ。
XAI-CFは必須であり、まだ初期段階にある。
本稿では,XAI-CFの意義と利点について考察し,考察する。
我々は、成功し実用的なxai-cfシステムを構築する必要性を強く強調し、システムの主要な要件と前提条件について論じる。
本稿では,CF と XAI-CF という用語の正式な定義と,XAI を応用・活用して CF の信頼を築き上げている過去の研究の総合的な文献レビューを紹介する。
XAI-CFが直面する課題について論じる。
これらの課題に対する具体的な解決策も提供しています。
CFのためのXAIアプリケーションを構築するための重要な洞察と今後の研究方向を特定します。
本論文は,CFにおけるXAIアプリケーションの役割を読者に探求し,親しみやすくする試みであり,我々は,XAI-CFに関心を持つ将来の研究者に,将来的な基盤を提供すると考えている。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Investigating the Role of Explainability and AI Literacy in User Compliance [2.8623940003518156]
XAIの導入により,ユーザのコンプライアンスが向上する一方で,AIリテラシーの影響も受けていることがわかった。
また,AIリテラシーXAIとユーザのコンプライアンスの関係は,ユーザのメンタルモデルが介在していることも確認した。
論文 参考訳(メタデータ) (2024-06-18T14:28:12Z) - Usable XAI: 10 Strategies Towards Exploiting Explainability in the LLM Era [77.174117675196]
XAIはLarge Language Models (LLM)に拡張されている
本稿では,XAIがLLMやAIシステムにどのようなメリットをもたらすかを分析する。
10の戦略を導入し、それぞれに重要なテクニックを導入し、関連する課題について議論します。
論文 参考訳(メタデータ) (2024-03-13T20:25:27Z) - Explainable AI for Safe and Trustworthy Autonomous Driving: A Systematic Review [12.38351931894004]
本稿では,安全かつ信頼性の高い自動運転のための説明可能な手法に関する,最初の体系的な文献レビューを紹介する。
我々は、ADにおける安全で信頼性の高いAIに対するXAIの5つの重要な貢献を特定し、それらは解釈可能な設計、解釈可能な代理モデル、解釈可能なモニタリング、補助的な説明、解釈可能な検証である。
我々は、これらのコントリビューションを統合するためにSafeXと呼ばれるモジュラーフレームワークを提案し、同時にAIモデルの安全性を確保しながら、ユーザへの説明提供を可能にした。
論文 参考訳(メタデータ) (2024-02-08T09:08:44Z) - Explainable AI is Responsible AI: How Explainability Creates Trustworthy
and Socially Responsible Artificial Intelligence [9.844540637074836]
これは責任あるAIのトピックであり、信頼できるAIシステムを開発する必要性を強調している。
XAIは、責任あるAI(RAI)のためのビルディングブロックとして広く考えられている。
以上の結果から,XAIはRAIのすべての柱にとって不可欠な基盤である,という結論に至った。
論文 参考訳(メタデータ) (2023-12-04T00:54:04Z) - Trust, Accountability, and Autonomy in Knowledge Graph-based AI for
Self-determination [1.4305544869388402]
知識グラフ(KG)は、インテリジェントな意思決定を支えるための基盤として登場した。
KGと神経学習の統合は、現在活発な研究のトピックである。
本稿では,KGベースのAIによる自己決定を支援するための基礎的なトピックと研究の柱を概念化する。
論文 参考訳(メタデータ) (2023-10-30T12:51:52Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Designer-User Communication for XAI: An epistemological approach to
discuss XAI design [4.169915659794568]
Signifying Message を概念的なツールとして、XAI シナリオを構造化および議論します。
私たちは、ヘルスケアAIシステムの議論にその使用を実験します。
論文 参考訳(メタデータ) (2021-05-17T13:18:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。