論文の概要: An Argumentation-based Approach for Explaining Goal Selection in
Intelligent Agents
- arxiv url: http://arxiv.org/abs/2009.06131v1
- Date: Mon, 14 Sep 2020 01:10:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 12:15:30.987621
- Title: An Argumentation-based Approach for Explaining Goal Selection in
Intelligent Agents
- Title(参考訳): 知能エージェントのゴール選択説明のための議論に基づくアプローチ
- Authors: Mariela Morveli-Espinoza, Cesar Augusto Tacla, and Henrique Jasinski
- Abstract要約: 知的エージェントは、仮定可能な目標のセットを生成し、そのどれが達成にコミットするかを選択します。
目標選択の文脈では、エージェントは、特定の目標を選択する(または選択しない)ための推論パスを説明することができるべきである。
本稿では, 部分的説明と完全説明という2種類の説明法と, 擬似自然説明を生成するための説明法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: During the first step of practical reasoning, i.e. deliberation or goals
selection, an intelligent agent generates a set of pursuable goals and then
selects which of them he commits to achieve. Explainable Artificial
Intelligence (XAI) systems, including intelligent agents, must be able to
explain their internal decisions. In the context of goals selection, agents
should be able to explain the reasoning path that leads them to select (or not)
a certain goal. In this article, we use an argumentation-based approach for
generating explanations about that reasoning path. Besides, we aim to enrich
the explanations with information about emerging conflicts during the selection
process and how such conflicts were resolved. We propose two types of
explanations: the partial one and the complete one and a set of explanatory
schemes to generate pseudo-natural explanations. Finally, we apply our proposal
to the cleaner world scenario.
- Abstract(参考訳): 実践的推論の第1段階、すなわち熟考または目標選択において、知的エージェントは、与えられた目標のセットを生成し、そのどれを達成するかを選択する。
知的エージェントを含む説明可能な人工知能(XAI)システムは、内部決定を説明できなければならない。
目標選択の文脈では、エージェントは特定の目標を選択(あるいは選択しない)することにつながる推論パスを説明できるべきである。
本稿では,その推論経路に関する説明を生成するために,議論に基づくアプローチを用いる。
また,選択過程における紛争の発生と,その解決方法についての説明を充実させることも目指している。
本稿では, 部分的説明と完全説明という2種類の説明法と, 擬似自然説明を生成するための説明法を提案する。
最後に,我々の提案をよりクリーンな世界シナリオに適用する。
関連論文リスト
- Clash of the Explainers: Argumentation for Context-Appropriate
Explanations [6.8285745209093145]
特定のコンテキストに最も適したアプローチはひとつもありません。
AIの説明容易性を効果的にするためには、説明とそれらがどのように提示されるかは、説明を受けるステークホルダーに向けられる必要がある。
本稿では、関係する利害関係者の精神モデルと、多説明者による議論問題を解決する理性コンポーネントと、利害関係者に適切に説明すべきAIモデルとからなるモジュラー推論システムを提案する。
論文 参考訳(メタデータ) (2023-12-12T09:52:30Z) - HOP, UNION, GENERATE: Explainable Multi-hop Reasoning without Rationale
Supervision [118.0818807474809]
本研究は、合理的な監督なしに説明可能なマルチホップQAシステムを訓練するための原則的確率論的アプローチを提案する。
提案手法は,集合としての有理を明示的にモデル化し,文書と文間の相互作用を文書内で捉えることによって,マルチホップ推論を行う。
論文 参考訳(メタデータ) (2023-05-23T16:53:49Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Selective Explanations: Leveraging Human Input to Align Explainable AI [40.33998268146951]
人間の入力を小さなサンプルに利用して選択的な説明を生成するための一般的なフレームワークを提案する。
事例として,意思決定支援タスクを用いて,意思決定者が決定タスクにどう関係するかに基づいて,選択的な説明を探索する。
我々の実験は、AIへの過度な依存を減らすための選択的な説明の可能性を実証している。
論文 参考訳(メタデータ) (2023-01-23T19:00:02Z) - Rethinking Explainability as a Dialogue: A Practitioner's Perspective [57.87089539718344]
医師、医療専門家、政策立案者に対して、説明を求めるニーズと欲求について尋ねる。
本研究は, 自然言語対話の形での対話的説明を, 意思決定者が強く好むことを示唆する。
これらのニーズを考慮して、インタラクティブな説明を設計する際に、研究者が従うべき5つの原則を概説する。
論文 参考訳(メタデータ) (2022-02-03T22:17:21Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Prompting Contrastive Explanations for Commonsense Reasoning Tasks [74.7346558082693]
大規模事前学習言語モデル(PLM)は、常識推論タスクにおいて、ほぼ人間に近い性能を達成することができる。
人間の解釈可能な証拠を生成するために、同じモデルを使う方法を示す。
論文 参考訳(メタデータ) (2021-06-12T17:06:13Z) - Generating Commonsense Explanation by Extracting Bridge Concepts from
Reasoning Paths [128.13034600968257]
本稿では、まず、推論チェーンでテキストブリッジとして機能する基礎概念を抽出する手法を提案する。
推論プロセスを容易にするために,文と橋梁の概念の関連性を構築するために,外部コモンセンス知識を利用する。
橋梁の概念抽出モデルを設計し,まず三重奏を採点し,その経路を導出し,さらに弱い監督で橋梁の概念を選定する。
論文 参考訳(メタデータ) (2020-09-24T15:27:20Z) - Argumentation-based Agents that Explain their Decisions [0.0]
我々は,BDI(Beliefs-Desires-Intentions)エージェントの拡張モデルが,それらの推論に関する説明を生成できることに焦点をあてる。
我々の提案は議論理論に基づいており、エージェントが決定を下す理由を表現するために議論を用いる。
部分的説明と完全説明の2つのタイプを提案する。
論文 参考訳(メタデータ) (2020-09-13T02:08:10Z) - An Argumentation-based Approach for Identifying and Dealing with
Incompatibilities among Procedural Goals [1.1744028458220426]
インテリジェントエージェントは複数のパース可能なゴールを生成し、それら間で互換性がない可能性がある。
本稿では,これらの非互換性の定義,識別,解決に焦点をあてる。
論文 参考訳(メタデータ) (2020-09-11T01:01:34Z) - Argument Schemes for Explainable Planning [1.927424020109471]
本稿では,AI計画の領域において,議論を用いて説明を行う。
我々は、計画とその構成要素を説明する引数を作成するための引数スキームを提案する。
また、議論間の相互作用を可能とし、ユーザがさらなる情報を得ることができるようにするための重要な質問のセットも提示する。
論文 参考訳(メタデータ) (2020-05-12T15:09:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。