論文の概要: Argument Schemes for Explainable Planning
- arxiv url: http://arxiv.org/abs/2005.05849v1
- Date: Tue, 12 May 2020 15:09:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 19:08:00.639097
- Title: Argument Schemes for Explainable Planning
- Title(参考訳): 説明可能な計画のための議論スキーム
- Authors: Quratul-ain Mahesar and Simon Parsons
- Abstract要約: 本稿では,AI計画の領域において,議論を用いて説明を行う。
我々は、計画とその構成要素を説明する引数を作成するための引数スキームを提案する。
また、議論間の相互作用を可能とし、ユーザがさらなる情報を得ることができるようにするための重要な質問のセットも提示する。
- 参考スコア(独自算出の注目度): 1.927424020109471
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial Intelligence (AI) is being increasingly used to develop systems
that produce intelligent solutions. However, there is a major concern that
whether the systems built will be trusted by humans. In order to establish
trust in AI systems, there is a need for the user to understand the reasoning
behind their solutions and therefore, the system should be able to explain and
justify its output. In this paper, we use argumentation to provide explanations
in the domain of AI planning. We present argument schemes to create arguments
that explain a plan and its components; and a set of critical questions that
allow interaction between the arguments and enable the user to obtain further
information regarding the key elements of the plan. Finally, we present some
properties of the plan arguments.
- Abstract(参考訳): 人工知能(AI)は、インテリジェントなソリューションを生み出すシステムの開発にますます利用されている。
しかし、構築されたシステムが人間によって信頼されるかどうかには大きな懸念がある。
aiシステムの信頼を確立するためには、ソリューションの背後にある理由を理解する必要があるため、システムはそのアウトプットを説明し、正当化することができるべきである。
本稿では,AI計画の領域において,議論を用いて説明を行う。
我々は,計画とその構成要素を説明する議論を作成するための議論スキームと,議論間のインタラクションを可能にし,計画の重要な要素に関するさらなる情報を得るための批判的質問のセットを提案する。
最後に、計画論のいくつかの性質を示す。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Learning to Solve Geometry Problems via Simulating Human Dual-Reasoning Process [84.49427910920008]
近年,幾何学的問題解決 (GPS) が注目されている。
解法は、テキストとダイアグラムの両方を包括的に理解し、重要な幾何学的知識を習得し、推論に適切に適用する必要がある。
既存の研究は、ニューラルネットワーク翻訳のパラダイムに従っており、人間の幾何学的推論の本質的な特徴を無視したエンコーダの能力の向上にのみ焦点をあてている。
論文 参考訳(メタデータ) (2024-05-10T03:53:49Z) - Alterfactual Explanations -- The Relevance of Irrelevance for Explaining
AI Systems [0.9542023122304099]
我々は、決定を完全に理解するためには、関連する特徴に関する知識だけでなく、無関係な情報の認識もAIシステムのユーザーのメンタルモデルの作成に大きく貢献すると主張している。
私たちのアプローチは、Alterfactual Explanations(Alterfactual Explanations)と呼ばれ、AIの入力の無関係な特徴が変更された別の現実を示すことに基づいています。
我々は,AIの推論のさまざまな側面を,反事実的説明法よりも理解するために,人工的説明が適していることを示す。
論文 参考訳(メタデータ) (2022-07-19T16:20:37Z) - Rethinking Explainability as a Dialogue: A Practitioner's Perspective [57.87089539718344]
医師、医療専門家、政策立案者に対して、説明を求めるニーズと欲求について尋ねる。
本研究は, 自然言語対話の形での対話的説明を, 意思決定者が強く好むことを示唆する。
これらのニーズを考慮して、インタラクティブな説明を設計する際に、研究者が従うべき5つの原則を概説する。
論文 参考訳(メタデータ) (2022-02-03T22:17:21Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Scope and Sense of Explainability for AI-Systems [0.0]
高度に複雑で効率的なAIシステムの説明可能性に関する問題に重点が置かれる。
AIソリューションが完全に理解できないため、事前に破棄されるならば、インテリジェントシステムの可能性の大部分は無駄になる、という考えを支持する議論を詳しく説明する。
論文 参考訳(メタデータ) (2021-12-20T14:25:05Z) - Knowledge-intensive Language Understanding for Explainable AI [9.541228711585886]
AIが主導する意思決定の仕方と、どの決定要因が含まれているかを理解することが不可欠である。
意思決定に直接関係する人間中心の説明を持つことは重要である。
人間が理解し、使用する明示的なドメイン知識を巻き込む必要がある。
論文 参考訳(メタデータ) (2021-08-02T21:12:30Z) - Argument Schemes and Dialogue for Explainable Planning [3.2741749231824904]
本論文では,AI計画の領域で説明を行うための議論スキームに基づくアプローチを提案する。
計画とその鍵となる要素を説明するための新たな議論スキームを提案する。
また、対話型方言説明のための議論スキームとクリティカルな質問を用いた新しい対話システムも提示する。
論文 参考訳(メタデータ) (2021-01-07T17:43:12Z) - Argumentation-based Agents that Explain their Decisions [0.0]
我々は,BDI(Beliefs-Desires-Intentions)エージェントの拡張モデルが,それらの推論に関する説明を生成できることに焦点をあてる。
我々の提案は議論理論に基づいており、エージェントが決定を下す理由を表現するために議論を用いる。
部分的説明と完全説明の2つのタイプを提案する。
論文 参考訳(メタデータ) (2020-09-13T02:08:10Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。