論文の概要: Argumentation-based Agents that Explain their Decisions
- arxiv url: http://arxiv.org/abs/2009.05897v1
- Date: Sun, 13 Sep 2020 02:08:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 02:58:33.733865
- Title: Argumentation-based Agents that Explain their Decisions
- Title(参考訳): 彼らの決定を説明する議論に基づくエージェント
- Authors: Mariela Morveli-Espinoza, Ayslan Possebom, and Cesar Augusto Tacla
- Abstract要約: 我々は,BDI(Beliefs-Desires-Intentions)エージェントの拡張モデルが,それらの推論に関する説明を生成できることに焦点をあてる。
我々の提案は議論理論に基づいており、エージェントが決定を下す理由を表現するために議論を用いる。
部分的説明と完全説明の2つのタイプを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Explainable Artificial Intelligence (XAI) systems, including intelligent
agents, must be able to explain their internal decisions, behaviours and
reasoning that produce their choices to the humans (or other systems) with
which they interact. In this paper, we focus on how an extended model of BDI
(Beliefs-Desires-Intentions) agents can be able to generate explanations about
their reasoning, specifically, about the goals he decides to commit to. Our
proposal is based on argumentation theory, we use arguments to represent the
reasons that lead an agent to make a decision and use argumentation semantics
to determine acceptable arguments (reasons). We propose two types of
explanations: the partial one and the complete one. We apply our proposal to a
scenario of rescue robots.
- Abstract(参考訳): 知的エージェントを含む説明可能な人工知能(XAI)システムは、それらが相互作用する人間(または他のシステム)に選択をもたらす内部決定、行動、推論を説明できなければならない。
本稿では,bdi(beliefs-desires-intentions)エージェントの拡張モデルが,その推論,具体的には,自分がコミットする目標についての説明をいかに生成できるかに着目する。
我々の提案は議論理論に基づいており、エージェントが決定を下す理由を表現するために引数を使用し、議論の意味論を用いて許容可能な議論(推論)を決定する。
我々は,部分的な説明と完全な説明の2種類の説明を提案する。
我々はこの提案を救助ロボットのシナリオに適用する。
関連論文リスト
- A Semantic Approach to Decidability in Epistemic Planning (Extended
Version) [72.77805489645604]
我々は決定可能性を達成するために新しい意味論的アプローチを用いる。
具体的には、知識の論理S5$_n$と(知識)可換性と呼ばれる相互作用公理を拡大する。
我々は,本フレームワークが,独立した知識である共通知識の有限的非固定点的特徴を認めていることを証明した。
論文 参考訳(メタデータ) (2023-07-28T11:26:26Z) - The Case Against Explainability [8.991619150027264]
法律における理性評価の役割を満足させるために,エンドユーザー説明責任の欠如を示す。
エンドユーザの説明責任は第4の機能に優れており、これは重大なリスクを生じさせる。
この研究は、規制当局と機械学習の実践者たちに、エンドユーザー説明可能性の幅広い追求を再考するよう呼びかける。
論文 参考訳(メタデータ) (2023-05-20T10:56:19Z) - Explainable AI is Dead, Long Live Explainable AI! Hypothesis-driven
decision support [4.452019519213712]
我々は、現在の説明可能な人工知能(XAI)モデルからのパラダイムシフトを議論する。
早期意思決定支援システムでは、人々に推奨を与え、それらを考慮し、必要なときにそれに従うことができると仮定した。
論文 参考訳(メタデータ) (2023-02-24T01:33:25Z) - Rethinking Explainability as a Dialogue: A Practitioner's Perspective [57.87089539718344]
医師、医療専門家、政策立案者に対して、説明を求めるニーズと欲求について尋ねる。
本研究は, 自然言語対話の形での対話的説明を, 意思決定者が強く好むことを示唆する。
これらのニーズを考慮して、インタラクティブな説明を設計する際に、研究者が従うべき5つの原則を概説する。
論文 参考訳(メタデータ) (2022-02-03T22:17:21Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Prompting Contrastive Explanations for Commonsense Reasoning Tasks [74.7346558082693]
大規模事前学習言語モデル(PLM)は、常識推論タスクにおいて、ほぼ人間に近い性能を達成することができる。
人間の解釈可能な証拠を生成するために、同じモデルを使う方法を示す。
論文 参考訳(メタデータ) (2021-06-12T17:06:13Z) - Argument Schemes and Dialogue for Explainable Planning [3.2741749231824904]
本論文では,AI計画の領域で説明を行うための議論スキームに基づくアプローチを提案する。
計画とその鍵となる要素を説明するための新たな議論スキームを提案する。
また、対話型方言説明のための議論スキームとクリティカルな質問を用いた新しい対話システムも提示する。
論文 参考訳(メタデータ) (2021-01-07T17:43:12Z) - Thinking About Causation: A Causal Language with Epistemic Operators [58.720142291102135]
我々はエージェントの状態を表すことで因果モデルの概念を拡張した。
対象言語の側面には、知識を表現する演算子や、新しい情報を観察する行為が追加されます。
我々は、論理の健全かつ完全な公理化を提供し、このフレームワークと因果的チーム意味論との関係について論じる。
論文 参考訳(メタデータ) (2020-10-30T12:16:45Z) - An Argumentation-based Approach for Explaining Goal Selection in
Intelligent Agents [0.0]
知的エージェントは、仮定可能な目標のセットを生成し、そのどれが達成にコミットするかを選択します。
目標選択の文脈では、エージェントは、特定の目標を選択する(または選択しない)ための推論パスを説明することができるべきである。
本稿では, 部分的説明と完全説明という2種類の説明法と, 擬似自然説明を生成するための説明法を提案する。
論文 参考訳(メタデータ) (2020-09-14T01:10:13Z) - Argument Schemes for Explainable Planning [1.927424020109471]
本稿では,AI計画の領域において,議論を用いて説明を行う。
我々は、計画とその構成要素を説明する引数を作成するための引数スキームを提案する。
また、議論間の相互作用を可能とし、ユーザがさらなる情報を得ることができるようにするための重要な質問のセットも提示する。
論文 参考訳(メタデータ) (2020-05-12T15:09:50Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。