論文の概要: A Framework of Explanation Generation toward Reliable Autonomous Robots
- arxiv url: http://arxiv.org/abs/2105.02670v1
- Date: Thu, 6 May 2021 13:50:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-05-07 13:28:24.717240
- Title: A Framework of Explanation Generation toward Reliable Autonomous Robots
- Title(参考訳): 信頼できる自律ロボットのための説明生成の枠組み
- Authors: Tatsuya Sakai, Kazuki Miyazawa, Takato Horii and Takayuki Nagai
- Abstract要約: 本稿では,マルコフ決定過程(mdp)において,現在状態から目標状態への遷移を説明することができる自律エージェントを内挿するアルゴリズムを提案する。
この要件を満たすために,世界の予測モデルを用いて意思決定プロセスにおいて重要な要素を特定する枠組みを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To realize autonomous collaborative robots, it is important to increase the
trust that users have in them. Toward this goal, this paper proposes an
algorithm which endows an autonomous agent with the ability to explain the
transition from the current state to the target state in a Markov decision
process (MDP). According to cognitive science, to generate an explanation that
is acceptable to humans, it is important to present the minimum information
necessary to sufficiently understand an event. To meet this requirement, this
study proposes a framework for identifying important elements in the
decision-making process using a prediction model for the world and generating
explanations based on these elements. To verify the ability of the proposed
method to generate explanations, we conducted an experiment using a grid
environment. It was inferred from the result of a simulation experiment that
the explanation generated using the proposed method was composed of the minimum
elements important for understanding the transition from the current state to
the target state. Furthermore, subject experiments showed that the generated
explanation was a good summary of the process of state transition, and that a
high evaluation was obtained for the explanation of the reason for an action.
- Abstract(参考訳): 自律的な協調ロボットを実現するためには,ユーザの信頼を高めることが重要である。
本研究の目的は,マルコフ決定過程(MDP)において,現状から目標状態への遷移を説明する能力を有する自律エージェントを付与するアルゴリズムを提案することである。
認知科学では、人間に受け入れられる説明を生成するためには、出来事を十分に理解するために必要な最小限の情報を示すことが重要である。
この要件を満たすために,世界の予測モデルを用いて意思決定プロセスにおいて重要な要素を識別し,これらの要素に基づいて説明を生成する枠組みを提案する。
提案手法が説明文を生成する能力を検証するために,グリッド環境を用いた実験を行った。
シミュレーション実験の結果,提案手法を用いて生成した説明は,現在の状態から対象状態への遷移を理解する上で重要な最小要素で構成されていることがわかった。
さらに, 被験者実験の結果, 生成した説明は状態遷移の過程のよい要約であり, 行動理由の説明のために高い評価が得られた。
関連論文リスト
- Exploring Energy Landscapes for Minimal Counterfactual Explanations: Applications in Cybersecurity and Beyond [3.6963146054309597]
説明可能な人工知能(XAI)において、対物的説明が顕著な方法として浮上している。
本稿では、摂動理論と統計力学を統合し、最小限の反実的説明を生成する新しい枠組みを提案する。
提案手法は,妥当性を維持しつつモデルの予測を変更するために必要な最小限の修正を系統的に同定する。
論文 参考訳(メタデータ) (2025-03-23T19:48:37Z) - When Can You Trust Your Explanations? A Robustness Analysis on Feature Importances [42.36530107262305]
説明の堅牢性は、システムと提供された説明の両方を信頼する上で、中心的な役割を果たす。
本稿では,非対向摂動に対するニューラルネットワーク説明の頑健さを解析するための新しいアプローチを提案する。
さらに,様々な説明を集約するアンサンブル手法を提案し,モデルの決定を理解し,頑健さを評価することによって,説明の融合がいかに有用かを示す。
論文 参考訳(メタデータ) (2024-06-20T14:17:57Z) - Explainability for Machine Learning Models: From Data Adaptability to
User Perception [0.8702432681310401]
この論文は、すでにデプロイされた機械学習モデルに対する局所的な説明の生成を探求する。
データとユーザ要件の両方を考慮して、意味のある説明を生み出すための最適な条件を特定することを目的としている。
論文 参考訳(メタデータ) (2024-02-16T18:44:37Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Clarify When Necessary: Resolving Ambiguity Through Interaction with LMs [58.620269228776294]
そこで本稿では,ユーザに対して,あいまいさを解消するためのタスク非依存のフレームワークを提案する。
我々は3つのNLPアプリケーション(質問応答、機械翻訳、自然言語推論)にまたがるシステムを評価する。
インテントシムは堅牢であり、幅広いNLPタスクやLMの改善を実証している。
論文 参考訳(メタデータ) (2023-11-16T00:18:50Z) - Introspection-based Explainable Reinforcement Learning in Episodic and
Non-episodic Scenarios [14.863872352905629]
イントロスペクションベースのアプローチは、成功の確率を提供するために強化学習エージェントと併用することができる。
イントロスペクションに基づくアプローチは、非エポゾディックなロボティクス環境でもたらされた動作を説明するためにも使用できる。
論文 参考訳(メタデータ) (2022-11-23T13:05:52Z) - Neural Causal Models for Counterfactual Identification and Estimation [62.30444687707919]
本稿では,ニューラルモデルによる反事実文の評価について検討する。
まず、神経因果モデル(NCM)が十分に表現可能であることを示す。
第2に,反事実分布の同時同定と推定を行うアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-09-30T18:29:09Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - CausalCity: Complex Simulations with Agency for Causal Discovery and
Reasoning [68.74447489372037]
本稿では,因果探索と反事実推論のためのアルゴリズムの開発を目的とした,高忠実度シミュレーション環境を提案する。
私たちの作業の中核となるコンポーネントは、複雑なシナリオを定義して作成することが簡単になるような、テキストの緊急性を導入することです。
我々は3つの最先端の手法による実験を行い、ベースラインを作成し、この環境の可利用性を強調する。
論文 参考訳(メタデータ) (2021-06-25T00:21:41Z) - On the Objective Evaluation of Post Hoc Explainers [10.981508361941335]
機械学習研究の最近の傾向は、それらがブラックボックスであると考えられる程度に、ますます複雑化しているアルゴリズムにつながっている。
意思決定の不透明度を低減するため、そのようなモデルの内部動作を人間に理解可能な方法で解釈する手法が提案されている。
本稿では,モデルの加法構造から直接導出される地底真理に基づくポストホック説明器の評価のための枠組みを提案する。
論文 参考訳(メタデータ) (2021-06-15T19:06:51Z) - Feature-Based Interpretable Reinforcement Learning based on
State-Transition Models [3.883460584034766]
現実世界でのAIモデルの運用に関する懸念が高まり、AIモデルの決定を人間に説明することへの関心が高まっています。
強化学習におけるリスクに関する局所的な説明方法を提案する。
論文 参考訳(メタデータ) (2021-05-14T23:43:11Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。