論文の概要: A Long Horizon Planning Framework for Manipulating Rigid Pointcloud
Objects
- arxiv url: http://arxiv.org/abs/2011.08177v1
- Date: Mon, 16 Nov 2020 18:59:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 01:18:36.767896
- Title: A Long Horizon Planning Framework for Manipulating Rigid Pointcloud
Objects
- Title(参考訳): リジッドポイントクラウドオブジェクト操作のための長期水平計画フレームワーク
- Authors: Anthony Simeonov, Yilun Du, Beomjoon Kim, Francois R. Hogan, Joshua
Tenenbaum, Pulkit Agrawal, Alberto Rodriguez
- Abstract要約: 本稿では,剛体物体の操作に伴う長期計画問題の解決のための枠組みを提案する。
提案手法はオブジェクトサブゴールの空間における計画であり,ロボットとオブジェクトの相互作用のダイナミクスに関する推論からプランナーを解放する。
- 参考スコア(独自算出の注目度): 25.428781562909606
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a framework for solving long-horizon planning problems involving
manipulation of rigid objects that operates directly from a point-cloud
observation, i.e. without prior object models. Our method plans in the space of
object subgoals and frees the planner from reasoning about robot-object
interaction dynamics by relying on a set of generalizable manipulation
primitives. We show that for rigid bodies, this abstraction can be realized
using low-level manipulation skills that maintain sticking contact with the
object and represent subgoals as 3D transformations. To enable generalization
to unseen objects and improve planning performance, we propose a novel way of
representing subgoals for rigid-body manipulation and a graph-attention based
neural network architecture for processing point-cloud inputs. We
experimentally validate these choices using simulated and real-world
experiments on the YuMi robot. Results demonstrate that our method can
successfully manipulate new objects into target configurations requiring
long-term planning. Overall, our framework realizes the best of the worlds of
task-and-motion planning (TAMP) and learning-based approaches. Project website:
https://anthonysimeonov.github.io/rpo-planning-framework/.
- Abstract(参考訳): 本稿では,従来の物体モデルを使わずに,点雲観測から直接動作する剛体物体の操作に関わる長期計画問題の解決フレームワークを提案する。
提案手法は,オブジェクトサブゴールの空間を計画し,汎用的な操作プリミティブのセットに頼って,ロボットとオブジェクトの相互作用のダイナミクスを推論する。
剛体では、物体との接触を保ち、サブゴールを3次元変換として表現する低レベルの操作技術を用いて、この抽象化を実現することができる。
そこで本稿では,非知覚オブジェクトの一般化と計画性能の向上を目的として,剛体操作のためのサブゴール表現法と,ポイントクラウド入力を処理するグラフアテンションベースのニューラルネットワークアーキテクチャを提案する。
我々は,YuMiロボットのシミュレーションおよび実世界実験を用いて,これらの選択を実験的に検証した。
その結果、新しいオブジェクトを長期計画を必要とするターゲット設定にうまく操作できることが判明した。
全体として、我々のフレームワークはタスク・アンド・モーション・プランニング(tamp)と学習ベースのアプローチの最高の世界を実現します。
プロジェクトwebサイト: https://anthonysimeonov.github.io/rpo-planning-framework/
関連論文リスト
- Uncertainty-aware Active Learning of NeRF-based Object Models for Robot Manipulators using Visual and Re-orientation Actions [8.059133373836913]
本稿では,ロボットが対象物の完全な3次元モデルを高速に学習し,不慣れな方向で操作できるアプローチを提案する。
我々は、部分的に構築されたNeRFモデルのアンサンブルを用いて、モデルの不確実性を定量化し、次の動作を決定する。
提案手法は, 部分的NeRFモデルにより対象物をいつ, どのように把握し, 再指向するかを判断し, 相互作用中に導入された不整合を補正するために, 対象のポーズを再推定する。
論文 参考訳(メタデータ) (2024-04-02T10:15:06Z) - RPMArt: Towards Robust Perception and Manipulation for Articulated Objects [56.73978941406907]
ロボットは実世界のロボット応用において,頑健な知覚と操作性を示すことが不可欠である。
本稿では,Articulated Objects (RPMArt) のロバスト知覚と操作のためのフレームワークを提案する。
RPMArtは、調音パラメータを推定し、雑音の多い点雲から調音部分を操作することを学習する。
論文 参考訳(メタデータ) (2024-03-24T05:55:39Z) - ShapeShift: Superquadric-based Object Pose Estimation for Robotic
Grasping [85.38689479346276]
現在の技術は参照3Dオブジェクトに大きく依存しており、その一般化性を制限し、新しいオブジェクトカテゴリに拡張するのにコストがかかる。
本稿では,オブジェクトに適合するプリミティブな形状に対してオブジェクトのポーズを予測する,オブジェクトのポーズ推定のためのスーパークワッドリックベースのフレームワークであるShapeShiftを提案する。
論文 参考訳(メタデータ) (2023-04-10T20:55:41Z) - Planning with Spatial-Temporal Abstraction from Point Clouds for
Deformable Object Manipulation [64.00292856805865]
空間抽象と時間抽象の両方を組み込んだ空間抽象型PlAnning(PASTA)を提案する。
我々のフレームワークは,高次元の3次元観測を潜時ベクトルの集合にマッピングし,潜時集合表現の上のスキルシーケンスを計画する。
本手法は,実世界のオブジェクト操作を効果的に行うことができることを示す。
論文 参考訳(メタデータ) (2022-10-27T19:57:04Z) - FlowBot3D: Learning 3D Articulation Flow to Manipulate Articulated Objects [14.034256001448574]
そこで本研究では,様々な物体の潜在的な動きを学習して予測する視覚ベースシステムを提案する。
我々は,このベクトル場に基づく解析的運動プランナを配置し,最大調音を与えるポリシを実現する。
その結果,本システムは実世界のシミュレーション実験と実世界実験の両方において,最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2022-05-09T15:35:33Z) - DiffSkill: Skill Abstraction from Differentiable Physics for Deformable
Object Manipulations with Tools [96.38972082580294]
DiffSkillは、変形可能なオブジェクト操作タスクを解決するために、スキル抽象化に微分可能な物理シミュレータを使用する新しいフレームワークである。
特に、勾配に基づくシミュレーターから個々のツールを用いて、まず短距離のスキルを得る。
次に、RGBD画像を入力として取り込む実演軌跡から、ニューラルネットワークの抽象体を学習する。
論文 参考訳(メタデータ) (2022-03-31T17:59:38Z) - Graph-based Reinforcement Learning meets Mixed Integer Programs: An
application to 3D robot assembly discovery [34.25379651790627]
我々は、テトリスのような構造ブロックとロボットマニピュレータを用いて、スクラッチから完全に定義済みの任意のターゲット構造を構築するという課題に対処する。
我々の新しい階層的アプローチは、タスク全体を相互に利益をもたらす3つの実行可能なレベルに効率的に分解することを目的としています。
論文 参考訳(メタデータ) (2022-03-08T14:44:51Z) - SORNet: Spatial Object-Centric Representations for Sequential
Manipulation [39.88239245446054]
シーケンシャルな操作タスクでは、ロボットが環境の状態を認識し、望ましい目標状態につながる一連のアクションを計画する必要がある。
本研究では,対象対象の標準視に基づくRGB画像からオブジェクト中心表現を抽出するSORNetを提案する。
論文 参考訳(メタデータ) (2021-09-08T19:36:29Z) - Where2Act: From Pixels to Actions for Articulated 3D Objects [54.19638599501286]
可動部を有する関節物体の押出しや引抜き等の基本動作に関連する高度に局所化された動作可能な情報を抽出する。
シミュレーションでネットワークをトレーニングできるオンラインデータサンプリング戦略を備えた学習から対話までのフレームワークを提案します。
私たちの学習モデルは、現実世界のデータにも転送します。
論文 参考訳(メタデータ) (2021-01-07T18:56:38Z) - Latent Space Roadmap for Visual Action Planning of Deformable and Rigid
Object Manipulation [74.88956115580388]
プランニングは、イメージを埋め込んだ低次元の潜在状態空間で行われる。
我々のフレームワークは2つの主要なコンポーネントで構成されており、画像のシーケンスとして視覚的な計画を生成するビジュアル・フォレスト・モジュール(VFM)と、それら間のアクションを予測するアクション・プロポーザル・ネットワーク(APN)である。
論文 参考訳(メタデータ) (2020-03-19T18:43:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。