論文の概要: A Measure of Explanatory Effectiveness
- arxiv url: http://arxiv.org/abs/2305.12233v1
- Date: Sat, 20 May 2023 16:52:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 23:38:17.360057
- Title: A Measure of Explanatory Effectiveness
- Title(参考訳): 説明的有効性の尺度
- Authors: Dylan Cope, Peter McBurney
- Abstract要約: 我々は,2プレイヤー協調ゲームの観点から,AIシステムを説明する問題を提起する。
この措置は、説明の自動化評価の基礎となる。
- 参考スコア(独自算出の注目度): 1.370633147306388
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In most conversations about explanation and AI, the recipient of the
explanation (the explainee) is suspiciously absent, despite the problem being
ultimately communicative in nature. We pose the problem `explaining AI systems'
in terms of a two-player cooperative game in which each agent seeks to maximise
our proposed measure of explanatory effectiveness. This measure serves as a
foundation for the automated assessment of explanations, in terms of the
effects that any given action in the game has on the internal state of the
explainee.
- Abstract(参考訳): 説明とaiに関するほとんどの議論において、説明の受け手(説明者)は、本質的にはコミュニケーションが困難であるにもかかわらず、疑わしいほど不在である。
エージェントが提案した説明効果の尺度を最大化しようとする2人プレイの協調ゲームにおいて,我々は「説明AIシステム」という問題を提起する。
この尺度は、ゲーム内の任意のアクションが説明者の内部状態に与える影響の観点から、説明の自動評価の基礎となる。
関連論文リスト
- Analysing Explanation-Related Interactions in Collaborative Perception-Cognition-Communication-Action [1.33828830691279]
我々は、シミュレーションされた緊急対応タスクを完了させるために協力する人間同士のコミュニケーションを分析し、分類する。
ほとんどの説明関連メッセージは、決定や行動の明確化を求めている。
論文 参考訳(メタデータ) (2024-11-19T13:07:04Z) - In Search of Verifiability: Explanations Rarely Enable Complementary
Performance in AI-Advised Decision Making [25.18203172421461]
説明は、人間の意思決定者がAIの予測の正しさを検証できる範囲でのみ有用である、と我々は主張する。
また、補完性能の目的と適切な依存度を比較し、後者を結果段階と戦略段階の信頼度の概念に分解する。
論文 参考訳(メタデータ) (2023-05-12T18:28:04Z) - Complementary Explanations for Effective In-Context Learning [77.83124315634386]
大規模言語モデル (LLM) は、説明のインプロンプトから学習する際、顕著な能力を示した。
この研究は、文脈内学習に説明が使用されるメカニズムをよりよく理解することを目的としている。
論文 参考訳(メタデータ) (2022-11-25T04:40:47Z) - Exploring Effectiveness of Explanations for Appropriate Trust: Lessons
from Cognitive Psychology [3.1945067016153423]
この研究は、認知心理学における発見からインスピレーションを得て、いかに効果的な説明を設計できるかを理解する。
我々は、デザイナーが特別な注意を払うことができる4つのコンポーネント、知覚、意味論、意図、ユーザとコンテキストを識別する。
本稿では,解釈可能な説明を生成できないアルゴリズムと説明コミュニケーションを併用した説明生成の新たなステップとして,効果的なAI説明のための重要な課題を提案する。
論文 参考訳(メタデータ) (2022-10-05T13:40:01Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - Making Things Explainable vs Explaining: Requirements and Challenges
under the GDPR [2.578242050187029]
ExplanatorY AI(YAI)はXAI上に構築され、説明可能な情報の収集と整理を目的としている。
本稿では,自動意思決定システム(ADM)について,説明空間上の適切な経路を特定するための説明を生成する問題について述べる。
論文 参考訳(メタデータ) (2021-10-02T08:48:47Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Explainable Object-induced Action Decision for Autonomous Vehicles [53.59781838748779]
自動運転の新しいパラダイムが提案されている。
それは人間がその問題を解決する方法にインスパイアされている。
この問題を解決するためにCNNアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-20T17:33:44Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Algorithmic Recourse: from Counterfactual Explanations to Interventions [16.9979815165902]
反事実的な説明は、どこに着く必要があるのかを個人に知らせるが、そこにたどり着くには至らない、と我々は主張する。
代わりに、最小限の介入を通して、最も近い対実的な説明から言い換えへのパラダイムシフトを提案する。
論文 参考訳(メタデータ) (2020-02-14T22:49:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。