論文の概要: No Need for Real 3D: Fusing 2D Vision with Pseudo 3D Representations for Robotic Manipulation Learning
- arxiv url: http://arxiv.org/abs/2509.16532v1
- Date: Sat, 20 Sep 2025 04:43:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.84132
- Title: No Need for Real 3D: Fusing 2D Vision with Pseudo 3D Representations for Robotic Manipulation Learning
- Title(参考訳): リアル3D:ロボットマニピュレーション学習のための擬似3D表現による2次元視覚の融合
- Authors: Run Yu, Yangdi Liu, Wen-Da Wei, Chen Li,
- Abstract要約: NoReal3D: 3DStructureFormerは、モノクロ画像を幾何学的に意味のある擬似点雲の特徴に変換することができる学習可能な3D知覚モジュールである。
筆者らのフレームワークは,3Dポイントクラウド獲得に伴う実質的なコストを完全に排除しつつ,ロボットの3D空間構造理解を強化する。
- 参考スコア(独自算出の注目度): 4.857549394680453
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently,vision-based robotic manipulation has garnered significant attention and witnessed substantial advancements. 2D image-based and 3D point cloud-based policy learning represent two predominant paradigms in the field, with recent studies showing that the latter consistently outperforms the former in terms of both policy performance and generalization, thereby underscoring the value and significance of 3D information. However, 3D point cloud-based approaches face the significant challenge of high data acquisition costs, limiting their scalability and real-world deployment. To address this issue, we propose a novel framework NoReal3D: which introduces the 3DStructureFormer, a learnable 3D perception module capable of transforming monocular images into geometrically meaningful pseudo-point cloud features, effectively fused with the 2D encoder output features. Specially, the generated pseudo-point clouds retain geometric and topological structures so we design a pseudo-point cloud encoder to preserve these properties, making it well-suited for our framework. We also investigate the effectiveness of different feature fusion strategies.Our framework enhances the robot's understanding of 3D spatial structures while completely eliminating the substantial costs associated with 3D point cloud acquisition.Extensive experiments across various tasks validate that our framework can achieve performance comparable to 3D point cloud-based methods, without the actual point cloud data.
- Abstract(参考訳): 近年、ビジョンベースのロボット操作が注目され、かなりの進歩が見られた。
2D画像ベースと3Dポイントクラウドベースのポリシー学習はこの分野における2つの主要なパラダイムを表現しており、最近の研究では、後者は政策性能と一般化の両方の観点から、前者よりも一貫して優れており、3D情報の価値と重要性が強調されている。
しかし、3Dポイントのクラウドベースのアプローチは、高いデータ取得コストの重大な課題に直面し、スケーラビリティと実際のデプロイメントを制限します。
この問題を解決するために,モノクロ画像を幾何学的に意味のある擬似点クラウド特徴に変換することができる学習可能な3D知覚モジュールである3DStructureFormerを,2Dエンコーダ出力特徴と効果的に融合した新しいフレームワークであるNoReal3Dを提案する。
特に、生成した擬似点雲は幾何学的および位相的構造を保ち、これらの特性を保存するために擬似点雲エンコーダを設計し、我々のフレームワークに適している。
また,我々のフレームワークは,3Dポイントクラウド取得に伴う実質的なコストを完全に排除しつつ,ロボットの3Dポイントクラウド構造に対する理解を高めるとともに,我々のフレームワークが実際のポイントクラウドデータなしで3Dポイントクラウドベースの手法に匹敵する性能を達成できることを示す。
関連論文リスト
- Dynamic 3D Point Cloud Sequences as 2D Videos [81.46246338686478]
3Dポイントクラウドシーケンスは、現実世界の環境における最も一般的で実用的な表現の1つとして機能する。
textitStructured Point Cloud Videos (SPCV) と呼ばれる新しい汎用表現を提案する。
SPCVは点雲列を空間的滑らかさと時間的一貫性を持つ2Dビデオとして再編成し、画素値は点の3D座標に対応する。
論文 参考訳(メタデータ) (2024-03-02T08:18:57Z) - Leveraging Large-Scale Pretrained Vision Foundation Models for
Label-Efficient 3D Point Cloud Segmentation [67.07112533415116]
本稿では3Dポイントクラウドセグメンテーションタスクに様々な基礎モデルを適用する新しいフレームワークを提案する。
我々のアプローチでは、異なる大きな視覚モデルを用いて2次元セマンティックマスクの初期予測を行う。
本研究では,ロバストな3Dセマンティックな擬似ラベルを生成するために,投票による全ての結果を効果的に組み合わせたセマンティックなラベル融合戦略を提案する。
論文 参考訳(メタデータ) (2023-11-03T15:41:15Z) - PonderV2: Pave the Way for 3D Foundation Model with A Universal Pre-training Paradigm [111.16358607889609]
本稿では,効率的な3D表現の獲得を容易にするために,新しいユニバーサル3D事前学習フレームワークを提案する。
PonderV2は、11の室内および屋外ベンチマークで最先端のパフォーマンスを達成したことで、その効果が示唆された。
論文 参考訳(メタデータ) (2023-10-12T17:59:57Z) - From Multi-View to Hollow-3D: Hallucinated Hollow-3D R-CNN for 3D Object
Detection [101.20784125067559]
本稿では,3次元物体検出の問題に対処するため,Halucinated Hollow-3D R-CNNという新しいアーキテクチャを提案する。
本稿では,まず,視点ビューと鳥眼ビューに点雲を逐次投影することで,多視点特徴を抽出する。
3Dオブジェクトは、新しい階層型Voxel RoIプール操作でボックスリファインメントモジュールを介して検出される。
論文 参考訳(メタデータ) (2021-07-30T02:00:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。