論文の概要: Dear XAI Community, We Need to Talk! Fundamental Misconceptions in
Current XAI Research
- arxiv url: http://arxiv.org/abs/2306.04292v1
- Date: Wed, 7 Jun 2023 09:46:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 15:08:38.475465
- Title: Dear XAI Community, We Need to Talk! Fundamental Misconceptions in
Current XAI Research
- Title(参考訳): XAIコミュニティを語る, 話し合わなければならない!
XAI研究の基本的誤解
- Authors: Timo Freiesleben and Gunnar K\"onig
- Abstract要約: この分野の進展にもかかわらず、現在のXAI研究のかなりの部分は、概念的、倫理的、方法論的な根拠に基づいていない。
我々は、現在のXAI研究において、これらや他の誤解を強調し、議論する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite progress in the field, significant parts of current XAI research are
still not on solid conceptual, ethical, or methodological grounds.
Unfortunately, these unfounded parts are not on the decline but continue to
grow. Many explanation techniques are still proposed without clarifying their
purpose. Instead, they are advertised with ever more fancy-looking heatmaps or
only seemingly relevant benchmarks. Moreover, explanation techniques are
motivated with questionable goals, such as building trust, or rely on strong
assumptions about the 'concepts' that deep learning algorithms learn. In this
paper, we highlight and discuss these and other misconceptions in current XAI
research. We also suggest steps to make XAI a more substantive area of
research.
- Abstract(参考訳): この分野の進展にもかかわらず、現在のXAI研究のかなりの部分は、概念的、倫理的、方法論的な根拠に基づいていない。
残念なことに、これらの未完成の部分は減少ではなく、成長を続けている。
現在でもその目的を明確にせずに多くの説明手法が提案されている。
代わりに、より派手なヒートマップや、関連するベンチマークで宣伝されている。
さらに、説明手法は、信頼の構築や、ディープラーニングアルゴリズムが学習する「概念」に関する強い仮定など、疑わしい目標を動機付けている。
本稿では,現在のXAI研究におけるこれらの誤解を取り上げ,議論する。
また、XAIをより実質的な研究分野にすることを提案する。
関連論文リスト
- Explainable Artificial Intelligence and Multicollinearity : A Mini Review of Current Approaches [0.0]
説明可能な人工知能(XAI)手法は、機械学習モデルの内部メカニズムを理解するのに役立つ。
情報的特徴のリストは、XAIメソッドの最も一般的な出力の1つである。
マルチコリニアリティは、XAIが説明を生成するときに考慮すべき大きな問題の1つです。
論文 参考訳(メタデータ) (2024-06-17T13:26:53Z) - Logic-Based Explainability: Past, Present & Future [0.8547032097715571]
機械学習(ML)と人工知能(AI)の採用も重大な懸念点である。
最も先進的なAI/MLモデルの運用は、人間の意思決定者の把握を超えたものが多い。
本稿では,論理に基づくXAIとその起源,研究の現在の話題,今後の研究の話題について,技術的な調査を行う。
論文 参考訳(メタデータ) (2024-06-04T10:41:55Z) - Position: Explain to Question not to Justify [17.79812812111111]
説明可能な人工知能(XAI)は有望な研究分野である。
我々はXAI領域内で絡み合った様々なスレッドを、人間/価値指向の説明の相補的な2つの文化に分けた。
RED XAIの領域は、AIシステムの安全性を確保するために必要な重要な研究の機会と可能性を秘めている。
論文 参考訳(メタデータ) (2024-02-21T16:30:24Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - Is Task-Agnostic Explainable AI a Myth? [0.0]
我々の研究は、現代の説明可能なAI(XAI)の課題を統一するための枠組みとして機能する。
我々は、XAI手法が機械学習モデルに補助的かつ潜在的に有用な出力を提供する一方で、研究者と意思決定者は、概念的および技術的な制限に留意すべきであることを示した。
本稿では,画像,テキスト,グラフデータにまたがる3つのXAI研究経路について検討する。
論文 参考訳(メタデータ) (2023-07-13T07:48:04Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Explainable AI: current status and future directions [11.92436948211501]
説明可能な人工知能(XAI)は、人工知能(AI)分野における新たな研究分野である。
XAIは、AIが特定のソリューションをどのように取得したかを説明し、他の"wh"質問にも答えることができる。
本稿では,マルチメディア(テキスト,画像,音声,ビデオ)の観点から,これらの技術の概要を紹介する。
論文 参考訳(メタデータ) (2021-07-12T08:42:19Z) - Machine Reasoning Explainability [100.78417922186048]
機械推論(MR: Machine Reasoning)は、抽象的推論を形式化し、エミュレートするための象徴的な手段である。
初期のMRの研究は、明らかに説明可能なAI(XAI)への問い合わせを開始した
本論文はMR説明可能性に関する我々の研究成果を報告する。
論文 参考訳(メタデータ) (2020-09-01T13:45:05Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。