論文の概要: Position: Explain to Question not to Justify
- arxiv url: http://arxiv.org/abs/2402.13914v2
- Date: Fri, 28 Jun 2024 08:37:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-01 21:34:45.990344
- Title: Position: Explain to Question not to Justify
- Title(参考訳): ポジション: 正当化しないよう質問する
- Authors: Przemyslaw Biecek, Wojciech Samek,
- Abstract要約: 説明可能な人工知能(XAI)は有望な研究分野である。
我々はXAI領域内で絡み合った様々なスレッドを、人間/価値指向の説明の相補的な2つの文化に分けた。
RED XAIの領域は、AIシステムの安全性を確保するために必要な重要な研究の機会と可能性を秘めている。
- 参考スコア(独自算出の注目度): 17.79812812111111
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable Artificial Intelligence (XAI) is a young but very promising field of research. Unfortunately, the progress in this field is currently slowed down by divergent and incompatible goals. We separate various threads tangled within the area of XAI into two complementary cultures of human/value-oriented explanations (BLUE XAI) and model/validation-oriented explanations (RED XAI). This position paper argues that the area of RED XAI is currently under-explored, i.e., more methods for explainability are desperately needed to question models (e.g., extract knowledge from well-performing models as well as spotting and fixing bugs in faulty models), and the area of RED XAI hides great opportunities and potential for important research necessary to ensure the safety of AI systems. We conclude this paper by presenting promising challenges in this area.
- Abstract(参考訳): 説明可能な人工知能(XAI)は若いが非常に有望な研究分野である。
残念ながら、この分野の進歩は、現在、ばらばらで互換性のない目標によって減速している。
我々は,XAI領域内で絡み合った様々なスレッドを,人間/価値指向の説明(BLUE XAI)とモデル/妥当性指向の説明(RED XAI)の2つの相補的な文化に分けた。
このポジションペーパーは、RED XAIの領域は、現在まだ探索されていない、すなわち、モデル(例えば、優れたモデルからの知識を抽出したり、欠陥モデルにおけるバグの発見や修正など)を問うために、より多くの説明可能性の方法が必死に必要であり、RED XAIの領域は、AIシステムの安全性を確保するために必要な重要な研究の機会と可能性を隠蔽している、と論じている。
本論文の結論は,本分野における有望な課題を提示することである。
関連論文リスト
- Explainable Artificial Intelligence and Multicollinearity : A Mini Review of Current Approaches [0.0]
説明可能な人工知能(XAI)手法は、機械学習モデルの内部メカニズムを理解するのに役立つ。
情報的特徴のリストは、XAIメソッドの最も一般的な出力の1つである。
マルチコリニアリティは、XAIが説明を生成するときに考慮すべき大きな問題の1つです。
論文 参考訳(メタデータ) (2024-06-17T13:26:53Z) - Gradient based Feature Attribution in Explainable AI: A Technical Review [13.848675695545909]
ブラックボックスAIモデルの急増は、内部メカニズムを説明し、信頼性を正当化する必要性を喚起している。
勾配に基づく説明は、ニューラルネットワークモデルに直接適用することができる。
アルゴリズムの性能を測定するために,人的評価と定量的評価の両方を導入する。
論文 参考訳(メタデータ) (2024-03-15T15:49:31Z) - Opening the Black-Box: A Systematic Review on Explainable AI in Remote
Sensing [52.110707276938]
ブラックボックス機械学習アプローチは、リモートセンシングにおける知識抽出のための主要なモデリングパラダイムとなっている。
我々は、リモートセンシングにおいて、説明可能なAIがどのように使われているかを示す重要なトレンドを特定するために、体系的なレビューを行う。
私たちは、新しい説明可能なAIアプローチと、特定のリモートセンシング課題に対処する新たな方向性に光を当てました。
論文 参考訳(メタデータ) (2024-02-21T13:19:58Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - Is Task-Agnostic Explainable AI a Myth? [0.0]
我々の研究は、現代の説明可能なAI(XAI)の課題を統一するための枠組みとして機能する。
我々は、XAI手法が機械学習モデルに補助的かつ潜在的に有用な出力を提供する一方で、研究者と意思決定者は、概念的および技術的な制限に留意すべきであることを示した。
本稿では,画像,テキスト,グラフデータにまたがる3つのXAI研究経路について検討する。
論文 参考訳(メタデータ) (2023-07-13T07:48:04Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Explainable Artificial Intelligence (XAI) for Internet of Things: A
Survey [1.7205106391379026]
人工知能(AI)モデルのブラックボックスの性質は、ユーザーがそのようなモデルによって生成された出力を理解し、時には信頼することを許さない。
結果だけでなく、結果への決定パスも重要なAIアプリケーションでは、このようなブラックボックスAIモデルは不十分である。
説明可能な人工知能(XAI)は、この問題に対処し、ユーザによって解釈される一連のAIモデルを定義する。
論文 参考訳(メタデータ) (2022-06-07T08:22:30Z) - Explainable AI (XAI): A Systematic Meta-Survey of Current Challenges and
Future Opportunities [0.0]
説明可能なAI(XAI)は、AIをより透明性を高め、クリティカルドメインにおけるAIの採用を促進するために提案されている。
本研究は,XAIにおける課題と今後の研究方向性の体系的なメタサーベイである。
論文 参考訳(メタデータ) (2021-11-11T19:06:13Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。