論文の概要: Towards an Explanation Space to Align Humans and Explainable-AI Teamwork
- arxiv url: http://arxiv.org/abs/2106.01503v1
- Date: Wed, 2 Jun 2021 23:17:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-05 03:56:08.984043
- Title: Towards an Explanation Space to Align Humans and Explainable-AI Teamwork
- Title(参考訳): 人との説明空間と説明可能なAIチームワーク
- Authors: Garrick Cabour, Andr\'es Morales, \'Elise Ledoux, Samuel Bassetto
- Abstract要約: 本稿では,ユーザインスパイアされた視点から説明空間を定義する形式的アーキテクチャを提案する。
アーキテクチャは、タスクの説明要件を概説する5つのコンポーネントから構成される。
アーキテクチャのコンポーネントを集約してデザイナを支援するモデリングツールであるAbstracted Explanation Spaceを紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Providing meaningful and actionable explanations to end-users is a
fundamental prerequisite for implementing explainable intelligent systems in
the real world. Explainability is a situated interaction between a user and the
AI system rather than being static design principles. The content of
explanations is context-dependent and must be defined by evidence about the
user and its context. This paper seeks to operationalize this concept by
proposing a formative architecture that defines the explanation space from a
user-inspired perspective. The architecture comprises five intertwined
components to outline explanation requirements for a task: (1) the end-users
mental models, (2) the end-users cognitive process, (3) the user interface, (4)
the human-explainer agent, and the (5) agent process. We first define each
component of the architecture. Then we present the Abstracted Explanation
Space, a modeling tool that aggregates the architecture's components to support
designers in systematically aligning explanations with the end-users work
practices, needs, and goals. It guides the specifications of what needs to be
explained (content - end-users mental model), why this explanation is necessary
(context - end-users cognitive process), to delimit how to explain it (format -
human-explainer agent and user interface), and when should the explanations be
given. We then exemplify the tool's use in an ongoing case study in the
aircraft maintenance domain. Finally, we discuss possible contributions of the
tool, known limitations/areas for improvement, and future work to be done.
- Abstract(参考訳): エンドユーザに有意義で実行可能な説明を提供することは、現実世界で説明可能なインテリジェントシステムを実装するための基本的な前提条件である。
説明可能性とは、静的設計の原則ではなく、ユーザとaiシステム間のインタラクションである。
説明の内容はコンテキスト依存であり、ユーザとそのコンテキストに関するエビデンスによって定義されなければならない。
本稿では,ユーザインスパイアされた視点から説明空間を定義する形式的アーキテクチャを提案する。
このアーキテクチャは、(1)エンドユーザー精神モデル、(2)エンドユーザー認知プロセス、(3)ユーザーインターフェース、(4)人間-説明エージェント、(5)エージェントプロセス、という5つのタスクの説明要件を概説する。
まずアーキテクチャの各コンポーネントを定義します。
次に、設計者を支援するためにアーキテクチャのコンポーネントを集約したモデリングツールであるabstracted explanation spaceを提案する。
説明すべき事項の仕様(コンテンツ - エンドユーザのメンタルモデル)、なぜこの説明が必要なのか(コンテキスト - エンドユーザの認知プロセス)、それを説明する方法(フォーマット人間-説明エージェントとユーザインターフェース)、そしていつ説明すべきかをガイドする。
次に、航空機のメンテナンスドメインで進行中のケーススタディでツールの使用例を示す。
最後に、ツールの潜在的な貢献、改善のための既知の制限/課題、今後の作業について論じる。
関連論文リスト
- An Ontology-Enabled Approach For User-Centered and Knowledge-Enabled Explanations of AI Systems [0.3480973072524161]
説明可能性に関する最近の研究は、AIモデルやモデル説明可能性の動作を説明することに重点を置いている。
この論文は、モデルとユーザ中心の説明可能性の間のギャップを埋めようとしている。
論文 参考訳(メタデータ) (2024-10-23T02:03:49Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Exploring Effectiveness of Explanations for Appropriate Trust: Lessons
from Cognitive Psychology [3.1945067016153423]
この研究は、認知心理学における発見からインスピレーションを得て、いかに効果的な説明を設計できるかを理解する。
我々は、デザイナーが特別な注意を払うことができる4つのコンポーネント、知覚、意味論、意図、ユーザとコンテキストを識別する。
本稿では,解釈可能な説明を生成できないアルゴリズムと説明コミュニケーションを併用した説明生成の新たなステップとして,効果的なAI説明のための重要な課題を提案する。
論文 参考訳(メタデータ) (2022-10-05T13:40:01Z) - Sensible AI: Re-imagining Interpretability and Explainability using
Sensemaking Theory [14.35488479818285]
Weickのセンスメイキング理論に基づく解釈可能性の代替的枠組みを提案する。
私たちは、Sensible AIの設計ガイドラインを議論するためのテンプレートとして、組織におけるセンスメイキングの応用を使用します。
論文 参考訳(メタデータ) (2022-05-10T17:20:44Z) - Rethinking Explainability as a Dialogue: A Practitioner's Perspective [57.87089539718344]
医師、医療専門家、政策立案者に対して、説明を求めるニーズと欲求について尋ねる。
本研究は, 自然言語対話の形での対話的説明を, 意思決定者が強く好むことを示唆する。
これらのニーズを考慮して、インタラクティブな説明を設計する際に、研究者が従うべき5つの原則を概説する。
論文 参考訳(メタデータ) (2022-02-03T22:17:21Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Explanation as a process: user-centric construction of multi-level and
multi-modal explanations [0.34410212782758043]
本稿では,マルチレベルとマルチモーダルな説明を組み合わせたプロセスベースアプローチを提案する。
私たちは、解釈可能な機械学習アプローチであるインダクティブロジックプログラミングを使用して、理解可能なモデルを学びます。
論文 参考訳(メタデータ) (2021-10-07T19:26:21Z) - Explanation Ontology: A Model of Explanations for User-Centered AI [3.1783442097247345]
説明はしばしば、原則的でないポストホックな方法でAIシステムに追加されている。
これらのシステムの採用が拡大し、ユーザ中心の説明可能性に重点を置いているため、説明可能性について第一の考慮事項として扱う構造的表現が必要である。
我々は,説明の役割,システムとユーザ属性の双方をモデル化するための説明オントロジーを設計し,異なる文献に基づく説明型の範囲を設計する。
論文 参考訳(メタデータ) (2020-10-04T03:53:35Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - A Neural Topical Expansion Framework for Unstructured Persona-oriented
Dialogue Generation [52.743311026230714]
Persona Exploration and Exploitation (PEE)は、事前に定義されたユーザペルソナ記述を意味論的に相関したコンテンツで拡張することができる。
PEEはペルソナ探索とペルソナ搾取という2つの主要なモジュールで構成されている。
提案手法は, 自動評価と人的評価の両面で, 最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-02-06T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。