論文の概要: Learning in ImaginationLand: Omnidirectional Policies through 3D Generative Models (OP-Gen)
- arxiv url: http://arxiv.org/abs/2509.06191v1
- Date: Sun, 07 Sep 2025 20:00:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.896157
- Title: Learning in ImaginationLand: Omnidirectional Policies through 3D Generative Models (OP-Gen)
- Title(参考訳): ImaginationLandでの学習:3次元生成モデル(OP-Gen)による全方位政策
- Authors: Yifei Ren, Edward Johns,
- Abstract要約: 3次元生成モデルを用いて,実世界の1つの実演からデータセットを拡張できることが示される。
これにより、デモ中に観測された状態からかなり離れた状態から初期化されると、ロボットがタスクを実行することができることがわかった。
- 参考スコア(独自算出の注目度): 12.546786671203646
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent 3D generative models, which are capable of generating full object shapes from just a few images, now open up new opportunities in robotics. In this work, we show that 3D generative models can be used to augment a dataset from a single real-world demonstration, after which an omnidirectional policy can be learned within this imagined dataset. We found that this enables a robot to perform a task when initialised from states very far from those observed during the demonstration, including starting from the opposite side of the object relative to the real-world demonstration, significantly reducing the number of demonstrations required for policy learning. Through several real-world experiments across tasks such as grasping objects, opening a drawer, and placing trash into a bin, we study these omnidirectional policies by investigating the effect of various design choices on policy behaviour, and we show superior performance to recent baselines which use alternative methods for data augmentation.
- Abstract(参考訳): 最近の3D生成モデルは、わずか数枚の画像から完全な物体の形状を生成できる。
本研究では、3次元生成モデルを用いて1つの実世界のデモンストレーションからデータセットを拡張できることを示し、その後、この仮定されたデータセット内で全方向のポリシーを学習できることを示す。
その結果、実世界の実演と比較して物体の反対側から開始するなど、デモ中に観測された状態からかなり離れた状態から初期化されると、ロボットがタスクを実行することができ、政策学習に必要なデモンストレーションの数を大幅に削減できることがわかった。
オブジェクトの把握,引き出しのオープン,ゴミ箱へのゴミの投入などの現実的な実験を通じて,さまざまな設計選択が政策行動に与える影響を検証し,データ拡張に代替手法を用いた最近のベースラインよりも優れた性能を示す。
関連論文リスト
- GWM: Towards Scalable Gaussian World Models for Robotic Manipulation [53.51622803589185]
本稿では,ロボット操作のための世界モデルGawssian World Model (GWM)を提案する。
中心となるのは、潜伏拡散変換器(DiT)と3次元変分オートエンコーダを組み合わせることで、微粒なシーンレベルの将来の状態復元を可能にする。
シミュレーションと実世界の実験の両方で、GWMは多様なロボットのアクションに照らされた未来のシーンを正確に予測できる。
論文 参考訳(メタデータ) (2025-08-25T02:01:09Z) - ArticuBot: Learning Universal Articulated Object Manipulation Policy via Large Scale Simulation [22.43711565969091]
Articubot(アルティキュボット)は、現実世界で目に見えないオブジェクトの多様なカテゴリをオープンするポリシーを学ぶシステムである。
学習したポリシーは、3つの異なるリアルロボット設定にゼロショット転送可能であることを示す。
論文 参考訳(メタデータ) (2025-03-04T22:51:50Z) - View-Invariant Policy Learning via Zero-Shot Novel View Synthesis [26.231630397802785]
本研究では,世界の大規模視覚データから得られる知識が,一般化可能な操作のための一軸の変動にどのように対処できるかを考察する。
本研究では,異なるカメラ視点から同一シーンの画像をレンダリングすることで,シーンレベルの3D認識を学習する単一画像の新規ビュー合成モデルについて検討する。
多様なロボットデータに実用的に応用するには、これらのモデルはゼロショットを動作させ、目に見えないタスクや環境でビュー合成を行う必要がある。
論文 参考訳(メタデータ) (2024-09-05T16:39:21Z) - Learning Generalizable Manipulation Policies with Object-Centric 3D
Representations [65.55352131167213]
GROOTは、オブジェクト中心と3D事前の堅牢なポリシーを学ぶための模倣学習手法である。
ビジョンベースの操作のための初期訓練条件を超えて一般化するポリシーを構築する。
GROOTのパフォーマンスは、バックグラウンドの変更、カメラの視点シフト、新しいオブジェクトインスタンスの存在に関する一般化に優れています。
論文 参考訳(メタデータ) (2023-10-22T18:51:45Z) - Transferring Foundation Models for Generalizable Robotic Manipulation [82.12754319808197]
インターネット規模の基盤モデルによって生成された言語推論セグメンテーションマスクを効果的に活用する新しいパラダイムを提案する。
提案手法は,オブジェクトのポーズを効果的かつ堅牢に知覚し,サンプル効率のよい一般化学習を可能にする。
デモは提出されたビデオで見ることができ、より包括的なデモはlink1またはlink2で見ることができます。
論文 参考訳(メタデータ) (2023-06-09T07:22:12Z) - Uncertainty Guided Policy for Active Robotic 3D Reconstruction using
Neural Radiance Fields [82.21033337949757]
本稿では,物体の暗黙のニューラル表現の各光線に沿ったカラーサンプルの重量分布のエントロピーを計算した線量不確実性推定器を提案する。
提案した推定器を用いた新しい視点から, 基礎となる3次元形状の不確かさを推測することが可能であることを示す。
ニューラルラディアンス場に基づく表現における線量不確実性によって導かれる次ベクター選択ポリシーを提案する。
論文 参考訳(メタデータ) (2022-09-17T21:28:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。