論文の概要: Argument Schemes for Explainable Planning
- arxiv url: http://arxiv.org/abs/2005.05849v1
- Date: Tue, 12 May 2020 15:09:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 19:08:00.639097
- Title: Argument Schemes for Explainable Planning
- Title(参考訳): 説明可能な計画のための議論スキーム
- Authors: Quratul-ain Mahesar and Simon Parsons
- Abstract要約: 本稿では,AI計画の領域において,議論を用いて説明を行う。
我々は、計画とその構成要素を説明する引数を作成するための引数スキームを提案する。
また、議論間の相互作用を可能とし、ユーザがさらなる情報を得ることができるようにするための重要な質問のセットも提示する。
- 参考スコア(独自算出の注目度): 1.927424020109471
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial Intelligence (AI) is being increasingly used to develop systems
that produce intelligent solutions. However, there is a major concern that
whether the systems built will be trusted by humans. In order to establish
trust in AI systems, there is a need for the user to understand the reasoning
behind their solutions and therefore, the system should be able to explain and
justify its output. In this paper, we use argumentation to provide explanations
in the domain of AI planning. We present argument schemes to create arguments
that explain a plan and its components; and a set of critical questions that
allow interaction between the arguments and enable the user to obtain further
information regarding the key elements of the plan. Finally, we present some
properties of the plan arguments.
- Abstract(参考訳): 人工知能(AI)は、インテリジェントなソリューションを生み出すシステムの開発にますます利用されている。
しかし、構築されたシステムが人間によって信頼されるかどうかには大きな懸念がある。
aiシステムの信頼を確立するためには、ソリューションの背後にある理由を理解する必要があるため、システムはそのアウトプットを説明し、正当化することができるべきである。
本稿では,AI計画の領域において,議論を用いて説明を行う。
我々は,計画とその構成要素を説明する議論を作成するための議論スキームと,議論間のインタラクションを可能にし,計画の重要な要素に関するさらなる情報を得るための批判的質問のセットを提案する。
最後に、計画論のいくつかの性質を示す。
関連論文リスト
- Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Language Models can be Logical Solvers [99.40649402395725]
論理解法の推論過程を直接エミュレートする新しい言語モデルであるLoGiPTを導入する。
LoGiPTは、導出的ソルバの見えない推論過程を明らかにして精錬することから導かれる、新しく構築された命令チューニングデータセットに基づいて微調整される。
論文 参考訳(メタデータ) (2023-11-10T16:23:50Z) - Alterfactual Explanations -- The Relevance of Irrelevance for Explaining
AI Systems [0.9542023122304099]
我々は、決定を完全に理解するためには、関連する特徴に関する知識だけでなく、無関係な情報の認識もAIシステムのユーザーのメンタルモデルの作成に大きく貢献すると主張している。
私たちのアプローチは、Alterfactual Explanations(Alterfactual Explanations)と呼ばれ、AIの入力の無関係な特徴が変更された別の現実を示すことに基づいています。
我々は,AIの推論のさまざまな側面を,反事実的説明法よりも理解するために,人工的説明が適していることを示す。
論文 参考訳(メタデータ) (2022-07-19T16:20:37Z) - Rethinking Explainability as a Dialogue: A Practitioner's Perspective [57.87089539718344]
医師、医療専門家、政策立案者に対して、説明を求めるニーズと欲求について尋ねる。
本研究は, 自然言語対話の形での対話的説明を, 意思決定者が強く好むことを示唆する。
これらのニーズを考慮して、インタラクティブな説明を設計する際に、研究者が従うべき5つの原則を概説する。
論文 参考訳(メタデータ) (2022-02-03T22:17:21Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Scope and Sense of Explainability for AI-Systems [0.0]
高度に複雑で効率的なAIシステムの説明可能性に関する問題に重点が置かれる。
AIソリューションが完全に理解できないため、事前に破棄されるならば、インテリジェントシステムの可能性の大部分は無駄になる、という考えを支持する議論を詳しく説明する。
論文 参考訳(メタデータ) (2021-12-20T14:25:05Z) - Knowledge-intensive Language Understanding for Explainable AI [9.541228711585886]
AIが主導する意思決定の仕方と、どの決定要因が含まれているかを理解することが不可欠である。
意思決定に直接関係する人間中心の説明を持つことは重要である。
人間が理解し、使用する明示的なドメイン知識を巻き込む必要がある。
論文 参考訳(メタデータ) (2021-08-02T21:12:30Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Argument Schemes and Dialogue for Explainable Planning [3.2741749231824904]
本論文では,AI計画の領域で説明を行うための議論スキームに基づくアプローチを提案する。
計画とその鍵となる要素を説明するための新たな議論スキームを提案する。
また、対話型方言説明のための議論スキームとクリティカルな質問を用いた新しい対話システムも提示する。
論文 参考訳(メタデータ) (2021-01-07T17:43:12Z) - Argumentation-based Agents that Explain their Decisions [0.0]
我々は,BDI(Beliefs-Desires-Intentions)エージェントの拡張モデルが,それらの推論に関する説明を生成できることに焦点をあてる。
我々の提案は議論理論に基づいており、エージェントが決定を下す理由を表現するために議論を用いる。
部分的説明と完全説明の2つのタイプを提案する。
論文 参考訳(メタデータ) (2020-09-13T02:08:10Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。