論文の概要: Explainable AI for Robot Failures: Generating Explanations that Improve
User Assistance in Fault Recovery
- arxiv url: http://arxiv.org/abs/2101.01625v1
- Date: Tue, 5 Jan 2021 16:16:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-11 11:36:19.646303
- Title: Explainable AI for Robot Failures: Generating Explanations that Improve
User Assistance in Fault Recovery
- Title(参考訳): ロボット故障のための説明可能なAI:障害復旧におけるユーザ支援を改善する説明生成
- Authors: Devleena Das, Siddhartha Banerjee, Sonia Chernova
- Abstract要約: エージェントの計画実行中に予期せぬ障害の原因を非専門家に説明する,新たなタイプの説明を紹介する。
既存のエンコーダデコーダモデルを拡張して,このような説明を自律的に生成する方法を検討する。
- 参考スコア(独自算出の注目度): 19.56670862587773
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the growing capabilities of intelligent systems, the integration of
robots in our everyday life is increasing. However, when interacting in such
complex human environments, the occasional failure of robotic systems is
inevitable. The field of explainable AI has sought to make complex-decision
making systems more interpretable but most existing techniques target domain
experts. On the contrary, in many failure cases, robots will require recovery
assistance from non-expert users. In this work, we introduce a new type of
explanation, that explains the cause of an unexpected failure during an agent's
plan execution to non-experts. In order for error explanations to be
meaningful, we investigate what types of information within a set of
hand-scripted explanations are most helpful to non-experts for failure and
solution identification. Additionally, we investigate how such explanations can
be autonomously generated, extending an existing encoder-decoder model, and
generalized across environments. We investigate such questions in the context
of a robot performing a pick-and-place manipulation task in the home
environment. Our results show that explanations capturing the context of a
failure and history of past actions, are the most effective for failure and
solution identification among non-experts. Furthermore, through a second user
evaluation, we verify that our model-generated explanations can generalize to
an unseen office environment, and are just as effective as the hand-scripted
explanations.
- Abstract(参考訳): インテリジェントシステムの能力の増大に伴い、私たちの日常生活におけるロボットの統合が増加している。
しかし、そのような複雑な人間環境で相互作用する場合、ロボットシステムの失敗は避けられない。
説明可能なAIの分野は、複雑な決定システムをより解釈可能にすることを目指しているが、既存のほとんどの技術はドメインの専門家をターゲットにしている。
逆に、多くの障害ケースでは、ロボットは専門家でないユーザーからの回復支援を必要とする。
本稿では,エージェントの計画実行中の予期せぬ障害の原因を非専門家に説明する,新たなタイプの説明を紹介する。
エラー説明が有意義であるためには,手書き説明のセット内の情報の種類が,非専門家の失敗やソリューション識別に最も役立つかを検討することが必要である。
さらに,このような説明を自律的に生成し,既存のエンコーダ・デコーダモデルを拡張し,環境をまたいで一般化する方法について検討する。
本研究では,家庭環境において,ロボットが操作作業を行う状況において,そのような課題を考察する。
その結果,失敗の文脈と過去の行動の履歴を捉えた説明が,非専門家の失敗やソリューション識別に最も効果的であることが判明した。
さらに, 第2のユーザ評価により, モデル生成説明が非認識のオフィス環境に一般化できることを確認し, 手書き説明と同等の有効性を検証した。
関連論文リスト
- $π_0$: A Vision-Language-Action Flow Model for General Robot Control [77.32743739202543]
本稿では,インターネット規模のセマンティック知識を継承するために,事前学習された視覚言語モデル(VLM)上に構築された新しいフローマッチングアーキテクチャを提案する。
我々は,事前訓練後のタスクをゼロショットで実行し,人からの言語指導に追従し,微調整で新たなスキルを習得する能力の観点から,我々のモデルを評価した。
論文 参考訳(メタデータ) (2024-10-31T17:22:30Z) - Explaining Explaining [0.882727051273924]
高度なAIシステムに自信を持つ人々にとって、説明は鍵となる。
マシンラーニングベースのシステムは、通常はブラックボックスであるため、説明できない。
認知エージェント開発におけるハイブリッドアプローチについて述べる。
論文 参考訳(メタデータ) (2024-09-26T16:55:44Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Evaluating Human-like Explanations for Robot Actions in Reinforcement
Learning Scenarios [1.671353192305391]
我々は、自律ロボットが行動を実行した後の目標を達成するために、成功の確率から構築された人間のような説明を活用している。
これらの説明は、人工知能の手法の経験がほとんど、あるいはほとんどない人々によって理解されることを意図している。
論文 参考訳(メタデータ) (2022-07-07T10:40:24Z) - Semantic-Based Explainable AI: Leveraging Semantic Scene Graphs and
Pairwise Ranking to Explain Robot Failures [18.80051800388596]
より一般化可能なセマンティックな説明フレームワークを導入する。
我々のフレームワークは、シーン内の意味情報を自律的にキャプチャして、意味記述的な説明を生成する。
以上の結果から,これらの意味記述的説明は,障害の特定と回復支援を両立する日常的ユーザの能力を大幅に向上させることが示唆された。
論文 参考訳(メタデータ) (2021-08-08T02:44:23Z) - Teaching the Machine to Explain Itself using Domain Knowledge [4.462334751640166]
非技術的人間-ループは、モデル予測の背後にある理論的根拠を理解するのに苦労する。
本稿では、意思決定タスクと関連する説明を共同で学習するニューラルネットワークベースのフレームワークJOELを提案する。
認定された専門家のプールからドメインフィードバックを収集し、それをモデル(人間の教え)を改善するために利用します。
論文 参考訳(メタデータ) (2020-11-27T18:46:34Z) - Explainable AI for System Failures: Generating Explanations that Improve
Human Assistance in Fault Recovery [15.359877013989228]
我々は,AIエージェントの計画実行中に発生する障害を自然言語で自動説明する手法を開発した。
これらの説明は、専門家でないユーザーが異なる障害点を理解するのを助けることに焦点をあてて開発されている。
既存のシーケンス・ツー・シーケンスの方法論を拡張して,文脈に基づく説明を自動的に生成する。
論文 参考訳(メタデータ) (2020-11-18T17:08:50Z) - Joint Inference of States, Robot Knowledge, and Human (False-)Beliefs [90.20235972293801]
本稿では,人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)の認知能力が,ロボットとの相互作用にどのように影響するかを理解するために,対象状態,ロボット知識,人間(時間的)の認知能力の表現にグラフィカルモデルを採用することを提案する。
推論アルゴリズムは、複数のビューにまたがる全てのロボットから個別のpgを融合し、単一のビューから発生したエラーを克服するより効果的な推論能力を得る。
論文 参考訳(メタデータ) (2020-04-25T23:02:04Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。