論文の概要: Semantic-Based Explainable AI: Leveraging Semantic Scene Graphs and
Pairwise Ranking to Explain Robot Failures
- arxiv url: http://arxiv.org/abs/2108.03554v1
- Date: Sun, 8 Aug 2021 02:44:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-10 15:09:45.108371
- Title: Semantic-Based Explainable AI: Leveraging Semantic Scene Graphs and
Pairwise Ranking to Explain Robot Failures
- Title(参考訳): セマンティックな説明可能なAI: セマンティックなシーングラフの活用と説明ロボットの失敗に対するペアワイズランキング
- Authors: Devleena Das, Sonia Chernova
- Abstract要約: より一般化可能なセマンティックな説明フレームワークを導入する。
我々のフレームワークは、シーン内の意味情報を自律的にキャプチャして、意味記述的な説明を生成する。
以上の結果から,これらの意味記述的説明は,障害の特定と回復支援を両立する日常的ユーザの能力を大幅に向上させることが示唆された。
- 参考スコア(独自算出の注目度): 18.80051800388596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When interacting in unstructured human environments, occasional robot
failures are inevitable. When such failures occur, everyday people, rather than
trained technicians, will be the first to respond. Existing natural language
explanations hand-annotate contextual information from an environment to help
everyday people understand robot failures. However, this methodology lacks
generalizability and scalability. In our work, we introduce a more
generalizable semantic explanation framework. Our framework autonomously
captures the semantic information in a scene to produce semantically
descriptive explanations for everyday users. To generate failure-focused
explanations that are semantically grounded, we leverages both semantic scene
graphs to extract spatial relations and object attributes from an environment,
as well as pairwise ranking. Our results show that these semantically
descriptive explanations significantly improve everyday users' ability to both
identify failures and provide assistance for recovery than the existing
state-of-the-art context-based explanations.
- Abstract(参考訳): 非構造な人間の環境で対話する場合、ロボットの故障は避けられない。
このような失敗が発生した場合、訓練を受けた技術者ではなく、日々の人々が最初に対応します。
既存の自然言語説明は、日常の人々がロボットの失敗を理解するのに役立つ環境からの文脈情報に注釈を付ける。
しかし、この手法には一般化性と拡張性がない。
本研究では,より汎用的な意味説明フレームワークを導入する。
我々のフレームワークは、シーン内の意味情報を自律的にキャプチャして、日常のユーザに対して意味記述的な説明を生成する。
セマンティクス的に根拠づけられた障害中心の説明を生成するために,セマンティクスシーングラフを利用して,環境から空間関係と対象属性を抽出する。
その結果,これらの意味論的記述的説明は,既存の状況に基づく説明よりも,日常ユーザの障害識別能力と回復支援能力が大幅に向上することが示された。
関連論文リスト
- Situated Instruction Following [87.37244711380411]
本稿では,実世界のコミュニケーションの非特異性とあいまいさを取り入れた位置指示について述べる。
位置指示の意味は、人間の過去の行動と将来の行動を通じて自然に展開される。
我々の実験は、現在最先端の身体的指示追従(EIF)モデルが、位置する人間の意図の全体的理解を欠いていることを示唆している。
論文 参考訳(メタデータ) (2024-07-15T19:32:30Z) - Self-Explainable Affordance Learning with Embodied Caption [63.88435741872204]
具体的キャプションを具現化したSelf-Explainable Affordance Learning (SEA)を紹介する。
SEAは、ロボットが意図を明確に表現し、説明可能な視覚言語キャプションと視覚能力学習のギャップを埋めることを可能にする。
本稿では, 簡便かつ効率的な方法で, 空き地と自己説明を効果的に組み合わせた新しいモデルを提案する。
論文 参考訳(メタデータ) (2024-04-08T15:22:38Z) - A Closer Look at Reward Decomposition for High-Level Robotic
Explanations [18.019811754800767]
本稿では、報酬分解と抽象的な行動空間を組み合わせたQ-Map学習フレームワークを提案する。
本稿では,2つのロボットシナリオの定量的,定性的な分析を通じて,本フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-25T16:01:42Z) - Is the Elephant Flying? Resolving Ambiguities in Text-to-Image
Generative Models [64.58271886337826]
テキストから画像への生成モデルで生じるあいまいさについて検討する。
本稿では,ユーザから明確化を求めることによって,システムに与えられるプロンプトのあいまいさを軽減する枠組みを提案する。
論文 参考訳(メタデータ) (2022-11-17T17:12:43Z) - Neural Abstructions: Abstractions that Support Construction for Grounded
Language Learning [69.1137074774244]
言語の相互作用を効果的に活用するには、言語基底に対する2つの最も一般的なアプローチの制限に対処する必要がある。
本稿では,ラベル条件付き生成モデルの推論手順に対する制約のセットであるニューラル・アブストラクションの考え方を紹介する。
この手法により,マインクラフトにおけるオープンエンドハウスタスクのセマンティックな変更をユーザ人口が構築できることが示される。
論文 参考訳(メタデータ) (2021-07-20T07:01:15Z) - Language Understanding for Field and Service Robots in a Priori Unknown
Environments [29.16936249846063]
本稿では,フィールドロボットとサービスロボットによる自然言語命令の解釈と実行を可能にする,新しい学習フレームワークを提案する。
自然言語の発話において、空間的、位相的、意味的な情報を暗黙的に推測する。
本研究では,この分布を確率論的言語基底モデルに組み込んで,ロボットの行動空間のシンボル表現上の分布を推定する。
論文 参考訳(メタデータ) (2021-05-21T15:13:05Z) - Explainable AI for Robot Failures: Generating Explanations that Improve
User Assistance in Fault Recovery [19.56670862587773]
エージェントの計画実行中に予期せぬ障害の原因を非専門家に説明する,新たなタイプの説明を紹介する。
既存のエンコーダデコーダモデルを拡張して,このような説明を自律的に生成する方法を検討する。
論文 参考訳(メタデータ) (2021-01-05T16:16:39Z) - Towards Abstract Relational Learning in Human Robot Interaction [73.67226556788498]
人間は環境における実体を豊かに表現する。
ロボットが人間とうまく対話する必要がある場合、同様の方法で実体、属性、一般化を表現する必要がある。
本研究では,人間とロボットの相互作用を通じて,これらの表現をどのように獲得するかという課題に対処する。
論文 参考訳(メタデータ) (2020-11-20T12:06:46Z) - Explainable AI for System Failures: Generating Explanations that Improve
Human Assistance in Fault Recovery [15.359877013989228]
我々は,AIエージェントの計画実行中に発生する障害を自然言語で自動説明する手法を開発した。
これらの説明は、専門家でないユーザーが異なる障害点を理解するのを助けることに焦点をあてて開発されている。
既存のシーケンス・ツー・シーケンスの方法論を拡張して,文脈に基づく説明を自動的に生成する。
論文 参考訳(メタデータ) (2020-11-18T17:08:50Z) - Lifelong update of semantic maps in dynamic environments [2.343080600040765]
ロボットは周囲から知覚される生の情報を通じて世界を理解する。
ロボットとユーザの両方が理解している高度な情報を含むセマンティックマップは、共有表現としてより適している。
セマンティックマップをフロアクリーニングロボット群におけるユーザインタフェースとして使用しています。
論文 参考訳(メタデータ) (2020-10-17T18:44:33Z) - Joint Inference of States, Robot Knowledge, and Human (False-)Beliefs [90.20235972293801]
本稿では,人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)の認知能力が,ロボットとの相互作用にどのように影響するかを理解するために,対象状態,ロボット知識,人間(時間的)の認知能力の表現にグラフィカルモデルを採用することを提案する。
推論アルゴリズムは、複数のビューにまたがる全てのロボットから個別のpgを融合し、単一のビューから発生したエラーを克服するより効果的な推論能力を得る。
論文 参考訳(メタデータ) (2020-04-25T23:02:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。