論文の概要: Object Pose Estimation Using Implicit Representation For Transparent Objects
- arxiv url: http://arxiv.org/abs/2410.13465v1
- Date: Thu, 17 Oct 2024 11:51:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-18 13:19:40.022417
- Title: Object Pose Estimation Using Implicit Representation For Transparent Objects
- Title(参考訳): 透明物体に対するインプシット表現を用いたオブジェクトポス推定
- Authors: Varun Burde, Artem Moroz, Vit Zeman, Pavel Burget,
- Abstract要約: レンダリング・アンド・コンペア法は、オブジェクトを複数のビューからレンダリングし、与えられた2D画像と比較する。
物体がニューラルラジアンス場(NeRF)の形で暗黙(ニューラル)表現として表現されている場合、実際のシーンをよりリアルに表現できることが示される。
我々は、透過的なデータセット上でのレンダリング・アンド・コンペア法のNeRF実装を評価し、現在の最先端結果を上回る結果を得た。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Object pose estimation is a prominent task in computer vision. The object pose gives the orientation and translation of the object in real-world space, which allows various applications such as manipulation, augmented reality, etc. Various objects exhibit different properties with light, such as reflections, absorption, etc. This makes it challenging to understand the object's structure in RGB and depth channels. Recent research has been moving toward learning-based methods, which provide a more flexible and generalizable approach to object pose estimation utilizing deep learning. One such approach is the render-and-compare method, which renders the object from multiple views and compares it against the given 2D image, which often requires an object representation in the form of a CAD model. We reason that the synthetic texture of the CAD model may not be ideal for rendering and comparing operations. We showed that if the object is represented as an implicit (neural) representation in the form of Neural Radiance Field (NeRF), it exhibits a more realistic rendering of the actual scene and retains the crucial spatial features, which makes the comparison more versatile. We evaluated our NeRF implementation of the render-and-compare method on transparent datasets and found that it surpassed the current state-of-the-art results.
- Abstract(参考訳): オブジェクトのポーズ推定はコンピュータビジョンにおいて顕著なタスクである。
オブジェクトのポーズは、現実世界の空間におけるオブジェクトの向きと変換を与えます。
様々な物体は反射や吸収など光によって異なる性質を示す。
これにより、RGBやディープチャネルでオブジェクトの構造を理解するのが難しくなる。
近年,ディープラーニングを利用したオブジェクトポーズ推定に,より柔軟で一般化可能なアプローチを提供する学習ベース手法が研究されている。
このようなアプローチの1つは、複数のビューからオブジェクトをレンダリングし、CADモデルの形でオブジェクト表現を必要とする与えられた2D画像と比較するレンダリング・アンド・コンペア法である。
CADモデルの合成テクスチャは,操作のレンダリングや比較に最適ではないかもしれない。
対象物がニューラルラジアンス場(NeRF)の形で暗黙(ニューラル)表現として表現されている場合、実際のシーンをよりリアルに表現し、重要な空間的特徴を保ち、比較がより多目的になることを示した。
我々は、透過的なデータセット上でのレンダリング・アンド・コンペア法のNeRF実装を評価し、現在の最先端結果を上回る結果を得た。
関連論文リスト
- Variational Inference for Scalable 3D Object-centric Learning [19.445804699433353]
我々は3Dシーンにおける拡張性のないオブジェクト中心表現学習の課題に取り組む。
オブジェクト中心表現学習への既存のアプローチは、より大きなシーンに一般化する際の限界を示している。
局所オブジェクト座標系におけるビュー不変3次元オブジェクト表現の学習を提案する。
論文 参考訳(メタデータ) (2023-09-25T10:23:40Z) - MegaPose: 6D Pose Estimation of Novel Objects via Render & Compare [84.80956484848505]
MegaPoseは、トレーニング中に見えない新しいオブジェクトの6Dポーズを推定する方法である。
本稿では,新しいオブジェクトに適用可能なR&Compare戦略に基づく6次元ポーズリファインダを提案する。
第2に,合成レンダリングと同一物体の観察画像間のポーズ誤差をリファインダで補正できるか否かを分類するために訓練されたネットワークを利用する,粗いポーズ推定のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-12-13T19:30:03Z) - Object-Compositional Neural Implicit Surfaces [45.274466719163925]
ニューラル暗示表現は、新しいビュー合成と多視点画像からの高品質な3D再構成においてその効果を示した。
本稿では,3次元再構成とオブジェクト表現に高い忠実性を有するオブジェクト合成型ニューラル暗黙表現を構築するための新しいフレームワークであるObjectSDFを提案する。
論文 参考訳(メタデータ) (2022-07-20T06:38:04Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - ELLIPSDF: Joint Object Pose and Shape Optimization with a Bi-level
Ellipsoid and Signed Distance Function Description [9.734266860544663]
本稿では,関節オブジェクトのポーズと形状最適化のための表現的かつコンパクトなモデルを提案する。
多視点RGB-Dカメラ観測からオブジェクトレベルのマップを推論する。
提案手法は,大規模実世界のScanNetデータセットを用いて評価し,最先端の手法と比較する。
論文 参考訳(メタデータ) (2021-08-01T03:07:31Z) - Disentangled Implicit Shape and Pose Learning for Scalable 6D Pose
Estimation [44.8872454995923]
単一オートエンコーダを用いた複数オブジェクトの合成データに対する自己教師付き学習により,スケーラブルな6次元ポーズ推定のための新しい手法を提案する。
提案手法は,T-LESS と NOCS REAL275 という実データを持つ2つのマルチオブジェクトベンチマークで検証し,ポーズ推定精度と一般化の点で既存の RGB 法より優れていることを示す。
論文 参考訳(メタデータ) (2021-07-27T01:55:30Z) - Sparse Pose Trajectory Completion [87.31270669154452]
サンプルの少ないビューにのみオブジェクトが出現するデータセットを使用しても学習する方法を提案する。
これはクロスモーダルポーズ軌道伝達機構によって実現される。
この手法はPix3DおよびShapeNetデータセット上で評価される。
論文 参考訳(メタデータ) (2021-05-01T00:07:21Z) - Neural Articulated Radiance Field [90.91714894044253]
本稿では,画像から学習した明瞭な物体に対する新しい変形可能な3次元表現であるニューラルArticulated Radiance Field(NARF)を提案する。
実験の結果,提案手法は効率的であり,新しいポーズにうまく一般化できることがわかった。
論文 参考訳(メタデータ) (2021-04-07T13:23:14Z) - Supervised Training of Dense Object Nets using Optimal Descriptors for
Industrial Robotic Applications [57.87136703404356]
Florence、Manuelli、TedrakeによるDense Object Nets(DON)は、ロボットコミュニティのための新しいビジュアルオブジェクト表現として高密度オブジェクト記述子を導入した。
本稿では, 物体の3次元モデルを考えると, 記述子空間画像を生成することができ, DON の教師付きトレーニングが可能であることを示す。
産業用物体の6次元グリップ生成のためのトレーニング手法を比較し,新しい教師付きトレーニング手法により,産業関連タスクのピック・アンド・プレイス性能が向上することを示す。
論文 参考訳(メタデータ) (2021-02-16T11:40:12Z) - Mask2CAD: 3D Shape Prediction by Learning to Segment and Retrieve [54.054575408582565]
本稿では,既存の3次元モデルの大規模データセットを活用し,画像中の物体の3次元構造を理解することを提案する。
本稿では,実世界の画像と検出対象を共同で検出するMask2CADについて,最も類似したCADモデルとそのポーズを最適化する。
これにより、画像内のオブジェクトのクリーンで軽量な表現が生成される。
論文 参考訳(メタデータ) (2020-07-26T00:08:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。