論文の概要: Argument Schemes and Dialogue for Explainable Planning
- arxiv url: http://arxiv.org/abs/2101.02648v2
- Date: Sun, 14 Feb 2021 23:03:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-10 13:38:34.490324
- Title: Argument Schemes and Dialogue for Explainable Planning
- Title(参考訳): 説明可能な計画のための議論手法と対話
- Authors: Quratul-ain Mahesar and Simon Parsons
- Abstract要約: 本論文では,AI計画の領域で説明を行うための議論スキームに基づくアプローチを提案する。
計画とその鍵となる要素を説明するための新たな議論スキームを提案する。
また、対話型方言説明のための議論スキームとクリティカルな質問を用いた新しい対話システムも提示する。
- 参考スコア(独自算出の注目度): 3.2741749231824904
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial Intelligence (AI) is being increasingly deployed in practical
applications. However, there is a major concern whether AI systems will be
trusted by humans. In order to establish trust in AI systems, there is a need
for users to understand the reasoning behind their solutions. Therefore,
systems should be able to explain and justify their output. In this paper, we
propose an argument scheme-based approach to provide explanations in the domain
of AI planning. We present novel argument schemes to create arguments that
explain a plan and its key elements; and a set of critical questions that allow
interaction between the arguments and enable the user to obtain further
information regarding the key elements of the plan. Furthermore, we present a
novel dialogue system using the argument schemes and critical questions for
providing interactive dialectical explanations.
- Abstract(参考訳): 人工知能(AI)は、実用アプリケーションにますます導入されている。
しかし、AIシステムが人間によって信頼されるかどうかには大きな懸念がある。
AIシステムへの信頼を確立するためには、ユーザがソリューションの背後にある理由を理解する必要がある。
したがって、システムはアウトプットの説明と正当化を行なわなければならない。
本稿では,AI計画の分野における説明を提供するための議論スキームに基づくアプローチを提案する。
提案手法は,計画とその鍵要素を説明するための新たな議論スキームと,議論間の相互作用を許容し,利用者が計画の重要な要素に関するさらなる情報を得ることができるための重要な質問のセットを提供する。
さらに,対話的弁証説明のための議論スキームと批判的質問を用いた対話システムを提案する。
関連論文リスト
- Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - A Unifying Framework for Learning Argumentation Semantics [50.69905074548764]
Inductive Logic Programmingアプローチを用いて、抽象的および構造化された議論フレームワークのアクセシビリティセマンティクスを解釈可能な方法で学習する新しいフレームワークを提案する。
提案手法は既存の議論解法よりも優れており,フォーマルな議論や人間と機械の対話の領域において,新たな研究の方向性が開けることになる。
論文 参考訳(メタデータ) (2023-10-18T20:18:05Z) - Solving NLP Problems through Human-System Collaboration: A
Discussion-based Approach [98.13835740351932]
本研究の目的は,対話を通じて予測を議論・洗練するシステムのための,データセットと計算フレームワークを構築することである。
提案システムでは,自然言語推論タスクにおいて,最大25ポイントの精度向上が期待できることを示す。
論文 参考訳(メタデータ) (2023-05-19T16:24:50Z) - Alterfactual Explanations -- The Relevance of Irrelevance for Explaining
AI Systems [0.9542023122304099]
我々は、決定を完全に理解するためには、関連する特徴に関する知識だけでなく、無関係な情報の認識もAIシステムのユーザーのメンタルモデルの作成に大きく貢献すると主張している。
私たちのアプローチは、Alterfactual Explanations(Alterfactual Explanations)と呼ばれ、AIの入力の無関係な特徴が変更された別の現実を示すことに基づいています。
我々は,AIの推論のさまざまな側面を,反事実的説明法よりも理解するために,人工的説明が適していることを示す。
論文 参考訳(メタデータ) (2022-07-19T16:20:37Z) - Rethinking Explainability as a Dialogue: A Practitioner's Perspective [57.87089539718344]
医師、医療専門家、政策立案者に対して、説明を求めるニーズと欲求について尋ねる。
本研究は, 自然言語対話の形での対話的説明を, 意思決定者が強く好むことを示唆する。
これらのニーズを考慮して、インタラクティブな説明を設計する際に、研究者が従うべき5つの原則を概説する。
論文 参考訳(メタデータ) (2022-02-03T22:17:21Z) - Scope and Sense of Explainability for AI-Systems [0.0]
高度に複雑で効率的なAIシステムの説明可能性に関する問題に重点が置かれる。
AIソリューションが完全に理解できないため、事前に破棄されるならば、インテリジェントシステムの可能性の大部分は無駄になる、という考えを支持する議論を詳しく説明する。
論文 参考訳(メタデータ) (2021-12-20T14:25:05Z) - Making Things Explainable vs Explaining: Requirements and Challenges
under the GDPR [2.578242050187029]
ExplanatorY AI(YAI)はXAI上に構築され、説明可能な情報の収集と整理を目的としている。
本稿では,自動意思決定システム(ADM)について,説明空間上の適切な経路を特定するための説明を生成する問題について述べる。
論文 参考訳(メタデータ) (2021-10-02T08:48:47Z) - Argumentation-based Agents that Explain their Decisions [0.0]
我々は,BDI(Beliefs-Desires-Intentions)エージェントの拡張モデルが,それらの推論に関する説明を生成できることに焦点をあてる。
我々の提案は議論理論に基づいており、エージェントが決定を下す理由を表現するために議論を用いる。
部分的説明と完全説明の2つのタイプを提案する。
論文 参考訳(メタデータ) (2020-09-13T02:08:10Z) - Argument Schemes for Explainable Planning [1.927424020109471]
本稿では,AI計画の領域において,議論を用いて説明を行う。
我々は、計画とその構成要素を説明する引数を作成するための引数スキームを提案する。
また、議論間の相互作用を可能とし、ユーザがさらなる情報を得ることができるようにするための重要な質問のセットも提示する。
論文 参考訳(メタデータ) (2020-05-12T15:09:50Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。