論文の概要: Reasoning with Scene Graphs for Robot Planning under Partial
Observability
- arxiv url: http://arxiv.org/abs/2202.10432v1
- Date: Mon, 21 Feb 2022 18:45:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 10:58:11.168749
- Title: Reasoning with Scene Graphs for Robot Planning under Partial
Observability
- Title(参考訳): 部分可観測性を考慮したロボット計画のためのシーングラフによる推論
- Authors: Saeid Amiri, Kishan Chandan, Shiqi Zhang
- Abstract要約: 我々は,ロボットが視覚的文脈情報で推論できるロボット計画のためのシーン解析アルゴリズムを開発した。
シミュレーションで複数の3D環境と実際のロボットが収集したデータセットを用いて実験を行った。
- 参考スコア(独自算出の注目度): 7.121002367542985
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robot planning in partially observable domains is difficult, because a robot
needs to estimate the current state and plan actions at the same time. When the
domain includes many objects, reasoning about the objects and their
relationships makes robot planning even more difficult. In this paper, we
develop an algorithm called scene analysis for robot planning (SARP) that
enables robots to reason with visual contextual information toward achieving
long-term goals under uncertainty. SARP constructs scene graphs, a factored
representation of objects and their relations, using images captured from
different positions, and reasons with them to enable context-aware robot
planning under partial observability. Experiments have been conducted using
multiple 3D environments in simulation, and a dataset collected by a real
robot. In comparison to standard robot planning and scene analysis methods, in
a target search domain, SARP improves both efficiency and accuracy in task
completion. Supplementary material can be found at https://tinyurl.com/sarp22
- Abstract(参考訳): ロボットが現在の状態を推定し、同時にアクションを計画する必要があるため、部分的に観察可能な領域でのロボット計画が難しい。
ドメインが多くのオブジェクトを含む場合、オブジェクトとその関係を推論することで、ロボットの計画がさらに困難になる。
本稿では,ロボットが不確実性の下で長期的目標を達成するための視覚的コンテキスト情報で推論できる,SARP(Scene Analysis for Robot Planning)アルゴリズムを提案する。
SARPは、異なる位置から撮影した画像を用いて、シーングラフ、オブジェクトとその関係の因子的表現を構築し、部分的可観測性の下でコンテキスト対応ロボット計画を可能にする。
シミュレーションで複数の3D環境と実際のロボットが収集したデータセットを用いて実験を行った。
標準的なロボット計画法やシーン解析法と比較して、ターゲット探索領域では、SARPはタスク完了時の効率と精度の両方を改善している。
補足資料はhttps://tinyurl.com/sarp22にある。
関連論文リスト
- Real-time Holistic Robot Pose Estimation with Unknown States [32.23145849683204]
RGB画像からロボットのポーズを推定することは、コンピュータビジョンとロボット工学において重要な問題である。
本稿では,1枚のRGB画像から実時間で総合的なポーズ推定を行うためのエンドツーエンドパイプラインを提案する。
本手法は,ロボットの状態パラメータ,キーポイント位置,ルート深さなど,カメラとロボットの回転を推定する。
論文 参考訳(メタデータ) (2024-02-08T13:12:50Z) - Interactive Planning Using Large Language Models for Partially
Observable Robotics Tasks [54.60571399091711]
大きな言語モデル(LLM)は、オープン語彙タスクを実行するロボットエージェントを作成することで、驚くべき成果を上げている。
LLMを用いた部分的に観測可能なタスクのための対話型計画手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T22:54:44Z) - SG-Bot: Object Rearrangement via Coarse-to-Fine Robotic Imagination on
Scene Graphs [84.65442852611497]
本稿では,新しいアレンジメントフレームワークであるSG-Botを紹介する。
SG-Botは軽量でリアルタイムでユーザ制御可能な特性を実証する。
実験の結果、SG-Botはライバルよりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2023-09-21T15:54:33Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Generalized Object Search [0.9137554315375919]
この論文は、不確実な3次元環境における多目的探索のための方法とシステムを開発する。
ロボットに依存しない,環境に依存しない3次元物体探索システムを構築した。
私はBoston Dynamics Spotロボット、Kinova MOVOロボット、Universal Robots UR5eロボットアームにデプロイしました。
論文 参考訳(メタデータ) (2023-01-24T16:41:36Z) - Can Foundation Models Perform Zero-Shot Task Specification For Robot
Manipulation? [54.442692221567796]
タスク仕様は、熟練していないエンドユーザの関与とパーソナライズされたロボットの採用に不可欠である。
タスク仕様に対する広く研究されているアプローチは、目標を通じて、コンパクトな状態ベクトルまたは同じロボットシーンのゴールイメージを使用することである。
そこで本研究では,人間の指定や使用が容易な目標仕様の代替的,より汎用的な形式について検討する。
論文 参考訳(メタデータ) (2022-04-23T19:39:49Z) - Situational Graphs for Robot Navigation in Structured Indoor
Environments [9.13466172688693]
環境を表す1つのグラフからなるリアルタイムオンライン構築状況グラフ(S-Graphs)を提示する。
本手法は3次元LiDARスキャンから抽出した計測値と平面面を用いて3層Sグラフをリアルタイムに構築・最適化する。
提案手法は,ロボットのポーズ推定の最先端結果を示すだけでなく,環境の計量意味・トポロジーモデルにも寄与する。
論文 参考訳(メタデータ) (2022-02-24T16:59:06Z) - Single-view robot pose and joint angle estimation via render & compare [40.05546237998603]
本稿では,1枚のRGB画像から関節角度と6Dカメラとロボットのポーズを推定する手法であるRoboPoseを紹介する。
これは、モバイルおよび反復型自律システムに他のロボットと対話する能力を与える上で、重要な問題である。
論文 参考訳(メタデータ) (2021-04-19T14:48:29Z) - Learning Generalizable Robotic Reward Functions from "In-The-Wild" Human
Videos [59.58105314783289]
ドメインに依存しないビデオ識別器(DVD)は、2つのビデオが同じタスクを実行しているかどうかを判断するために識別器を訓練することによりマルチタスク報酬関数を学習する。
DVDは、人間のビデオの広いデータセットで少量のロボットデータから学習することで、一般化することができる。
DVDと視覚モデル予測制御を組み合わせることで、実際のWidowX200ロボットのロボット操作タスクを単一の人間のデモから未知の環境で解決できます。
論文 参考訳(メタデータ) (2021-03-31T05:25:05Z) - Projection Mapping Implementation: Enabling Direct Externalization of
Perception Results and Action Intent to Improve Robot Explainability [62.03014078810652]
既存の非言語的手がかり、例えば目視や腕の動きに関する研究は、ロボットの内部状態を正確に示さないかもしれない。
状態をロボットの動作環境に直接投影することは、直接的で正確でより健全であるという利点がある。
論文 参考訳(メタデータ) (2020-10-05T18:16:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。