論文の概要: Explanation Ontology: A Model of Explanations for User-Centered AI
- arxiv url: http://arxiv.org/abs/2010.01479v1
- Date: Sun, 4 Oct 2020 03:53:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 03:22:37.346461
- Title: Explanation Ontology: A Model of Explanations for User-Centered AI
- Title(参考訳): 説明オントロジー:ユーザ中心型AIのための説明モデル
- Authors: Shruthi Chari, Oshani Seneviratne, Daniel M. Gruen, Morgan A. Foreman,
Amar K. Das, Deborah L. McGuinness
- Abstract要約: 説明はしばしば、原則的でないポストホックな方法でAIシステムに追加されている。
これらのシステムの採用が拡大し、ユーザ中心の説明可能性に重点を置いているため、説明可能性について第一の考慮事項として扱う構造的表現が必要である。
我々は,説明の役割,システムとユーザ属性の双方をモデル化するための説明オントロジーを設計し,異なる文献に基づく説明型の範囲を設計する。
- 参考スコア(独自算出の注目度): 3.1783442097247345
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainability has been a goal for Artificial Intelligence (AI) systems since
their conception, with the need for explainability growing as more complex AI
models are increasingly used in critical, high-stakes settings such as
healthcare. Explanations have often added to an AI system in a non-principled,
post-hoc manner. With greater adoption of these systems and emphasis on
user-centric explainability, there is a need for a structured representation
that treats explainability as a primary consideration, mapping end user needs
to specific explanation types and the system's AI capabilities. We design an
explanation ontology to model both the role of explanations, accounting for the
system and user attributes in the process, and the range of different
literature-derived explanation types. We indicate how the ontology can support
user requirements for explanations in the domain of healthcare. We evaluate our
ontology with a set of competency questions geared towards a system designer
who might use our ontology to decide which explanation types to include, given
a combination of users' needs and a system's capabilities, both in system
design settings and in real-time operations. Through the use of this ontology,
system designers will be able to make informed choices on which explanations AI
systems can and should provide.
- Abstract(参考訳): 説明可能性(Explainability)は、AI(Artificial Intelligence)システムのコンセプト以来の目標であり、より複雑なAIモデルが医療などの重要かつ高度な設定でますます使用されるようになるにつれて、説明可能性の増大の必要性がある。
説明はしばしば、原則的でないポストホックな方法でAIシステムに追加されている。
これらのシステムの採用が拡大し、ユーザ中心の説明可能性に重点を置いているため、説明容易性を主要な考慮事項として扱う構造化表現、エンドユーザが特定の説明型とシステムのAI機能にマッピングする必要がある。
我々は,説明の役割,システムとユーザ属性の双方をモデル化するための説明オントロジーを設計し,異なる文献に基づく説明型の範囲を設計する。
オントロジーが医療領域における説明のユーザ要求をどのようにサポートするかを示す。
我々は,システム設計とリアルタイム操作の両方において,ユーザのニーズとシステムの能力の組み合わせを考慮して,どの説明タイプを含めるかを決定するシステム設計者を対象とした,一連の能力的質問によってオントロジを評価する。
このオントロジーを使うことで、システムデザイナーは、aiシステムが提供すべきとすべき説明について、インフォームドな選択をすることができる。
関連論文リスト
- An Ontology-Enabled Approach For User-Centered and Knowledge-Enabled Explanations of AI Systems [0.3480973072524161]
説明可能性に関する最近の研究は、AIモデルやモデル説明可能性の動作を説明することに重点を置いている。
この論文は、モデルとユーザ中心の説明可能性の間のギャップを埋めようとしている。
論文 参考訳(メタデータ) (2024-10-23T02:03:49Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - "Explanation" is Not a Technical Term: The Problem of Ambiguity in XAI [2.5899040911480173]
本稿では,これらの特徴を実用性評価に利用する方法について検討する。
我々は,機能的役割によって定義された説明の要件,理解しようとするユーザの知識状態,それらの生成に必要な情報の提供に焦点をあてる。
論文 参考訳(メタデータ) (2022-06-27T21:42:53Z) - Rethinking Explainability as a Dialogue: A Practitioner's Perspective [57.87089539718344]
医師、医療専門家、政策立案者に対して、説明を求めるニーズと欲求について尋ねる。
本研究は, 自然言語対話の形での対話的説明を, 意思決定者が強く好むことを示唆する。
これらのニーズを考慮して、インタラクティブな説明を設計する際に、研究者が従うべき5つの原則を概説する。
論文 参考訳(メタデータ) (2022-02-03T22:17:21Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Explanation Ontology in Action: A Clinical Use-Case [3.1783442097247345]
システム設計者が説明オントロジーを利用するためのステップバイステップのガイダンスを提供する。
本稿では,このガイダンスを臨床現場で活用した詳細な例を示す。
論文 参考訳(メタデータ) (2020-10-04T03:52:39Z) - Towards an Interface Description Template for AI-enabled Systems [77.34726150561087]
再利用(Reuse)は、システムアーキテクチャを既存のコンポーネントでインスタンス化しようとする、一般的なシステムアーキテクチャのアプローチである。
現在、コンポーネントが当初目的としていたものと異なるシステムで運用する可搬性を評価するために必要な情報の選択をガイドするフレームワークは存在しない。
我々は、AI対応コンポーネントの主情報をキャプチャするインターフェイス記述テンプレートの確立に向けて、現在進行中の作業について述べる。
論文 参考訳(メタデータ) (2020-07-13T20:30:26Z) - Foundations of Explainable Knowledge-Enabled Systems [3.7250420821969827]
本稿では,説明可能な人工知能システムの歴史的概要を紹介する。
我々は、エキスパートシステム、認知アシスタント、セマンティックアプリケーション、機械学習ドメインにまたがる知識対応システムに焦点を当てる。
説明可能な知識対応システムと説明可能な知識対応システムについて,新たな定義を提案する。
論文 参考訳(メタデータ) (2020-03-17T04:18:48Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。