論文の概要: Reasoning with Scene Graphs for Robot Planning under Partial
Observability
- arxiv url: http://arxiv.org/abs/2202.10432v1
- Date: Mon, 21 Feb 2022 18:45:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 10:58:11.168749
- Title: Reasoning with Scene Graphs for Robot Planning under Partial
Observability
- Title(参考訳): 部分可観測性を考慮したロボット計画のためのシーングラフによる推論
- Authors: Saeid Amiri, Kishan Chandan, Shiqi Zhang
- Abstract要約: 我々は,ロボットが視覚的文脈情報で推論できるロボット計画のためのシーン解析アルゴリズムを開発した。
シミュレーションで複数の3D環境と実際のロボットが収集したデータセットを用いて実験を行った。
- 参考スコア(独自算出の注目度): 7.121002367542985
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robot planning in partially observable domains is difficult, because a robot
needs to estimate the current state and plan actions at the same time. When the
domain includes many objects, reasoning about the objects and their
relationships makes robot planning even more difficult. In this paper, we
develop an algorithm called scene analysis for robot planning (SARP) that
enables robots to reason with visual contextual information toward achieving
long-term goals under uncertainty. SARP constructs scene graphs, a factored
representation of objects and their relations, using images captured from
different positions, and reasons with them to enable context-aware robot
planning under partial observability. Experiments have been conducted using
multiple 3D environments in simulation, and a dataset collected by a real
robot. In comparison to standard robot planning and scene analysis methods, in
a target search domain, SARP improves both efficiency and accuracy in task
completion. Supplementary material can be found at https://tinyurl.com/sarp22
- Abstract(参考訳): ロボットが現在の状態を推定し、同時にアクションを計画する必要があるため、部分的に観察可能な領域でのロボット計画が難しい。
ドメインが多くのオブジェクトを含む場合、オブジェクトとその関係を推論することで、ロボットの計画がさらに困難になる。
本稿では,ロボットが不確実性の下で長期的目標を達成するための視覚的コンテキスト情報で推論できる,SARP(Scene Analysis for Robot Planning)アルゴリズムを提案する。
SARPは、異なる位置から撮影した画像を用いて、シーングラフ、オブジェクトとその関係の因子的表現を構築し、部分的可観測性の下でコンテキスト対応ロボット計画を可能にする。
シミュレーションで複数の3D環境と実際のロボットが収集したデータセットを用いて実験を行った。
標準的なロボット計画法やシーン解析法と比較して、ターゲット探索領域では、SARPはタスク完了時の効率と精度の両方を改善している。
補足資料はhttps://tinyurl.com/sarp22にある。
関連論文リスト
- Learning Object Properties Using Robot Proprioception via Differentiable Robot-Object Interaction [52.12746368727368]
微分可能シミュレーションは、システム識別の強力なツールとなっている。
本手法は,オブジェクト自体のデータに頼ることなく,ロボットからの情報を用いてオブジェクト特性を校正する。
低コストなロボットプラットフォームにおける本手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-10-04T20:48:38Z) - Planning Robot Placement for Object Grasping [5.327052729563043]
物体の摘み取りなどの操作に基づく活動を行う場合、移動ロボットは、実行を成功させる位置で基地を位置決めする必要がある。
この問題に対処するために、顕著なアプローチは、通常、対象のオブジェクトに対する把握ポーズを提供するために、プランナーを高価に把握することに依存する。
そこで我々は,まず環境との衝突を起こさないロボット配置を見つけ,次に最適な配置候補を見出すよう評価する。
論文 参考訳(メタデータ) (2024-05-26T20:57:32Z) - Track2Act: Predicting Point Tracks from Internet Videos enables Generalizable Robot Manipulation [65.46610405509338]
我々は、ゼロショットロボット操作を可能にする汎用的な目標条件ポリシーを学習することを目指している。
私たちのフレームワークであるTrack2Actは、ゴールに基づいて将来のタイムステップで画像内のポイントがどのように動くかを予測する。
学習したトラック予測を残留ポリシーと組み合わせることで,多種多様な汎用ロボット操作が可能となることを示す。
論文 参考訳(メタデータ) (2024-05-02T17:56:55Z) - Interactive Planning Using Large Language Models for Partially
Observable Robotics Tasks [54.60571399091711]
大きな言語モデル(LLM)は、オープン語彙タスクを実行するロボットエージェントを作成することで、驚くべき成果を上げている。
LLMを用いた部分的に観測可能なタスクのための対話型計画手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T22:54:44Z) - SG-Bot: Object Rearrangement via Coarse-to-Fine Robotic Imagination on Scene Graphs [81.15889805560333]
本稿では,新しいアレンジメントフレームワークであるSG-Botを紹介する。
SG-Botは軽量でリアルタイムでユーザ制御可能な特性を実証する。
実験の結果、SG-Botはライバルよりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2023-09-21T15:54:33Z) - Generalized Object Search [0.9137554315375919]
この論文は、不確実な3次元環境における多目的探索のための方法とシステムを開発する。
ロボットに依存しない,環境に依存しない3次元物体探索システムを構築した。
私はBoston Dynamics Spotロボット、Kinova MOVOロボット、Universal Robots UR5eロボットアームにデプロイしました。
論文 参考訳(メタデータ) (2023-01-24T16:41:36Z) - Can Foundation Models Perform Zero-Shot Task Specification For Robot
Manipulation? [54.442692221567796]
タスク仕様は、熟練していないエンドユーザの関与とパーソナライズされたロボットの採用に不可欠である。
タスク仕様に対する広く研究されているアプローチは、目標を通じて、コンパクトな状態ベクトルまたは同じロボットシーンのゴールイメージを使用することである。
そこで本研究では,人間の指定や使用が容易な目標仕様の代替的,より汎用的な形式について検討する。
論文 参考訳(メタデータ) (2022-04-23T19:39:49Z) - Single-view robot pose and joint angle estimation via render & compare [40.05546237998603]
本稿では,1枚のRGB画像から関節角度と6Dカメラとロボットのポーズを推定する手法であるRoboPoseを紹介する。
これは、モバイルおよび反復型自律システムに他のロボットと対話する能力を与える上で、重要な問題である。
論文 参考訳(メタデータ) (2021-04-19T14:48:29Z) - Projection Mapping Implementation: Enabling Direct Externalization of
Perception Results and Action Intent to Improve Robot Explainability [62.03014078810652]
既存の非言語的手がかり、例えば目視や腕の動きに関する研究は、ロボットの内部状態を正確に示さないかもしれない。
状態をロボットの動作環境に直接投影することは、直接的で正確でより健全であるという利点がある。
論文 参考訳(メタデータ) (2020-10-05T18:16:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。