論文の概要: 3D object reconstruction and 6D-pose estimation from 2D shape for
robotic grasping of objects
- arxiv url: http://arxiv.org/abs/2203.01051v1
- Date: Wed, 2 Mar 2022 11:58:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-03 15:28:06.778698
- Title: 3D object reconstruction and 6D-pose estimation from 2D shape for
robotic grasping of objects
- Title(参考訳): 物体のロボットグルーピングのための3次元物体再構成と2次元形状からの6次元位置推定
- Authors: Marcell Wolnitza, Osman Kaya, Tomas Kulvicius, Florentin W\"org\"otter
and Babette Dellen
- Abstract要約: 本研究では,2次元画像からの3次元オブジェクト再構成と6次元位置推定手法を提案する。
2次元画像から直接変換パラメータを計算することにより、登録プロセスに必要な自由パラメータの数を削減できる。
ロボット実験では、オブジェクトの把握が成功し、実際の環境でのユーザビリティが実証される。
- 参考スコア(独自算出の注目度): 2.330913682033217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a method for 3D object reconstruction and 6D-pose estimation from
2D images that uses knowledge about object shape as the primary key. In the
proposed pipeline, recognition and labeling of objects in 2D images deliver 2D
segment silhouettes that are compared with the 2D silhouettes of projections
obtained from various views of a 3D model representing the recognized object
class. By computing transformation parameters directly from the 2D images, the
number of free parameters required during the registration process is reduced,
making the approach feasible. Furthermore, 3D transformations and projective
geometry are employed to arrive at a full 3D reconstruction of the object in
camera space using a calibrated set up. Inclusion of a second camera allows
resolving remaining ambiguities. The method is quantitatively evaluated using
synthetic data and tested with real data, and additional results for the
well-known Linemod data set are shown. In robot experiments, successful
grasping of objects demonstrates its usability in real-world environments, and,
where possible, a comparison with other methods is provided. The method is
applicable to scenarios where 3D object models, e.g., CAD-models or point
clouds, are available and precise pixel-wise segmentation maps of 2D images can
be obtained. Different from other methods, the method does not use 3D depth for
training, widening the domain of application.
- Abstract(参考訳): 本稿では,物体形状の知識を主キーとする2次元画像からの3次元物体再構成と6次元位置推定手法を提案する。
提案するパイプラインでは、2次元画像中の物体の認識とラベリングは、認識されたオブジェクトクラスを表す3次元モデルの様々なビューから得られた投影の2次元シルエットと比較される2次元セグメントシルエットを提供する。
2d画像から変換パラメータを直接計算することにより、登録プロセス中に必要となる自由パラメータの数を削減し、アプローチが実現可能となる。
さらに、3次元変換と射影幾何学を用いて、キャリブレーション設定を用いてカメラ空間内の物体の完全な3次元再構成を行う。
第2のカメラを含めると、残りの曖昧さを解消できる。
本手法は, 合成データを用いて定量的に評価し, 実データを用いて検証し, 有名なLinemodデータセットに対する追加結果を示す。
ロボット実験では,物体の把握に成功し,実環境におけるユーザビリティを実証し,可能であれば他の方法との比較を行う。
この方法はCADモデルや点雲などの3次元オブジェクトモデルが利用可能であり、2次元画像の正確なピクセルワイドセグメンテーションマップを得ることができるシナリオに適用できる。
他の方法とは異なり、この方法はトレーニングに3D深度を使用しず、アプリケーションの領域を広げる。
関連論文リスト
- Likelihood-Based Generative Radiance Field with Latent Space
Energy-Based Model for 3D-Aware Disentangled Image Representation [43.41596483002523]
本稿では,Neural Radiance Fields (NeRF) による3次元表現と,可変ボリュームレンダリングによる2次元画像処理を併用した3次元画像生成モデルを提案する。
いくつかのベンチマークデータセットの実験では、NeRF-LEBMは2D画像から3Dオブジェクト構造を推測し、新しいビューとオブジェクトで2D画像を生成し、不完全な2D画像から学び、未知のカメラポーズで2D画像から学ぶことができる。
論文 参考訳(メタデータ) (2023-04-16T23:44:41Z) - SSR-2D: Semantic 3D Scene Reconstruction from 2D Images [54.46126685716471]
本研究では,3Dアノテーションを使わずにセマンティックなシーン再構成を行う中心的な3Dシーンモデリングタスクについて検討する。
提案手法の鍵となる考え方は,不完全な3次元再構成と対応するRGB-D画像の両方を用いたトレーニング可能なモデルの設計である。
本研究では,2つの大規模ベンチマークデータセットであるMatterPort3DとScanNetに対して,セマンティックシーン補完の最先端性能を実現する。
論文 参考訳(メタデータ) (2023-02-07T17:47:52Z) - Accelerate 3D Object Processing via Spectral Layout [1.52292571922932]
本稿では,3次元オブジェクトに重要な情報を2次元空間に包含する手法を提案する。
提案手法は3Dオブジェクトに対して高品質な2D表現を実現し,3Dオブジェクトの処理に2Dベースの手法を用いることができる。
論文 参考訳(メタデータ) (2021-10-25T03:18:37Z) - AutoShape: Real-Time Shape-Aware Monocular 3D Object Detection [15.244852122106634]
形状認識型2D/3D制約を3D検出フレームワークに組み込む手法を提案する。
具体的には、ディープニューラルネットワークを用いて、2次元画像領域の区別された2Dキーポイントを学習する。
2D/3Dキーポイントの基礎的真理を生成するために、自動的なモデル適合手法が提案されている。
論文 参考訳(メタデータ) (2021-08-25T08:50:06Z) - Learning Canonical 3D Object Representation for Fine-Grained Recognition [77.33501114409036]
本研究では,1枚の画像から3次元空間における物体の変動を再現する微粒な物体認識のための新しいフレームワークを提案する。
我々は,物体を3次元形状とその外観の合成として表現し,カメラ視点の影響を排除した。
深部表現に3次元形状と外観を併用することにより,物体の識別表現を学習する。
論文 参考訳(メタデータ) (2021-08-10T12:19:34Z) - Sparse Pose Trajectory Completion [87.31270669154452]
サンプルの少ないビューにのみオブジェクトが出現するデータセットを使用しても学習する方法を提案する。
これはクロスモーダルポーズ軌道伝達機構によって実現される。
この手法はPix3DおよびShapeNetデータセット上で評価される。
論文 参考訳(メタデータ) (2021-05-01T00:07:21Z) - Fully Understanding Generic Objects: Modeling, Segmentation, and
Reconstruction [33.95791350070165]
2D画像からジェネリックオブジェクトの3D構造を推定することは、コンピュータビジョンの長年の目標です。
半教師付き学習による代替アプローチを取る。
つまり、ジェネリックオブジェクトの2Dイメージでは、カテゴリ、形状、およびアルベドの潜在的な表現に分解します。
完全な形状とアルベドモデリングにより、モデリングとモデルフィッティングの両方で実際の2Dイメージを活用できることを示しています。
論文 参考訳(メタデータ) (2021-04-02T02:39:29Z) - Do 2D GANs Know 3D Shape? Unsupervised 3D shape reconstruction from 2D
Image GANs [156.1209884183522]
GANのような最先端の2D生成モデルは、自然像多様体のモデリングにおいて前例のない品質を示している。
本稿では,RGB画像のみをトレーニングした市販の2D GANから3次元幾何学的手がかりを直接マイニングする試みについて紹介する。
論文 参考訳(メタデータ) (2020-11-02T09:38:43Z) - Canonical 3D Deformer Maps: Unifying parametric and non-parametric
methods for dense weakly-supervised category reconstruction [79.98689027127855]
独立オブジェクトの2次元画像の集合から学習できる共通オブジェクトカテゴリの3次元形状の表現を提案する。
提案手法は, パラメトリック変形モデル, 非パラメトリック3次元再構成, 標準埋め込みの概念に基づく新しい手法で構築する。
顔、車、鳥の野生のデータセットを3Dで再現することで、最先端の成果が得られます。
論文 参考訳(メタデータ) (2020-08-28T15:44:05Z) - Cylinder3D: An Effective 3D Framework for Driving-scene LiDAR Semantic
Segmentation [87.54570024320354]
大規模運転シーンのLiDARセマンティックセマンティックセグメンテーションのための最先端の手法は、しばしば2D空間の点雲を投影して処理する。
3D-to-2Dプロジェクションの問題に取り組むための簡単な解決策は、3D表現を保ち、3D空間の点を処理することである。
我々は3次元シリンダー分割と3次元シリンダー畳み込みに基づくフレームワークをCylinder3Dとして開発し,3次元トポロジの関係と運転シーンの点雲の構造を利用する。
論文 参考訳(メタデータ) (2020-08-04T13:56:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。