論文の概要: CLA-NeRF: Category-Level Articulated Neural Radiance Field
- arxiv url: http://arxiv.org/abs/2202.00181v1
- Date: Tue, 1 Feb 2022 02:04:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-02 15:28:54.126387
- Title: CLA-NeRF: Category-Level Articulated Neural Radiance Field
- Title(参考訳): CLA-NeRF:カテゴリーレベルArticulated Neural Radiance Field
- Authors: Wei-Cheng Tseng, Hung-Ju Liao, Yen-Chen Lin, Min Sun
- Abstract要約: CLA-NeRF - カテゴリーレベルArticulated Neural Radiance Fieldを提案する。
ビュー合成、部分分割、調音されたポーズ推定を行うことができる。
- 参考スコア(独自算出の注目度): 27.528170226206438
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose CLA-NeRF -- a Category-Level Articulated Neural Radiance Field
that can perform view synthesis, part segmentation, and articulated pose
estimation. CLA-NeRF is trained at the object category level using no CAD
models and no depth, but a set of RGB images with ground truth camera poses and
part segments. During inference, it only takes a few RGB views (i.e., few-shot)
of an unseen 3D object instance within the known category to infer the object
part segmentation and the neural radiance field. Given an articulated pose as
input, CLA-NeRF can perform articulation-aware volume rendering to generate the
corresponding RGB image at any camera pose. Moreover, the articulated pose of
an object can be estimated via inverse rendering. In our experiments, we
evaluate the framework across five categories on both synthetic and real-world
data. In all cases, our method shows realistic deformation results and accurate
articulated pose estimation. We believe that both few-shot articulated object
rendering and articulated pose estimation open doors for robots to perceive and
interact with unseen articulated objects.
- Abstract(参考訳): cla-nerf -- 視点合成、部分セグメンテーション、明瞭なポーズ推定が可能な、カテゴリレベルのarticulated neural radiance fieldを提案する。
cla-nerfはcadモデルと奥行きを使わずにオブジェクトのカテゴリレベルでトレーニングされるが、グラインド・トゥルート・カメラのポーズと部分セグメントを備えたrgbイメージのセットである。
推論中は、既知のカテゴリ内の未知の3DオブジェクトインスタンスのいくつかのRGBビュー(すなわち、数ショット)しか必要とせず、対象部分のセグメンテーションと神経放射場を推測する。
入力として調音されたポーズが与えられた場合、CLA-NeRFは調音対応ボリュームレンダリングを行い、任意のカメラポーズで対応するRGB画像を生成する。
さらに、物体の明瞭なポーズを逆レンダリングによって推定することができる。
実験では,合成データと実世界データの両方において,5つのカテゴリにわたるフレームワークを評価した。
いずれの場合も,本手法は現実的な変形結果と正確なポーズ推定を示す。
本研究は,ロボットが未確認の物体を知覚し,操作する上で,撮影対象のレンダリングとポーズ推定の両方がオープンドアであると考えている。
関連論文リスト
- Object Pose Estimation Using Implicit Representation For Transparent Objects [0.0]
レンダリング・アンド・コンペア法は、オブジェクトを複数のビューからレンダリングし、与えられた2D画像と比較する。
物体がニューラルラジアンス場(NeRF)の形で暗黙(ニューラル)表現として表現されている場合、実際のシーンをよりリアルに表現できることが示される。
我々は、透過的なデータセット上でのレンダリング・アンド・コンペア法のNeRF実装を評価し、現在の最先端結果を上回る結果を得た。
論文 参考訳(メタデータ) (2024-10-17T11:51:12Z) - HOLD: Category-agnostic 3D Reconstruction of Interacting Hands and
Objects from Video [70.11702620562889]
HOLD - 単分子インタラクションビデオから手とオブジェクトを共同で再構成する最初のカテゴリーに依存しない方法。
我々は,3次元手と物体を2次元画像から切り離すことができる構成的明瞭な暗黙モデルを開発した。
本手法は,3次元手オブジェクトアノテーションに頼らず,組込みと組込みの両面において,完全教師付きベースラインに優れる。
論文 参考訳(メタデータ) (2023-11-30T10:50:35Z) - SegNeRF: 3D Part Segmentation with Neural Radiance Fields [63.12841224024818]
SegNeRFは、通常の放射場とセマンティックフィールドを統合するニューラルネットワーク表現である。
SegNeRFは、未確認のオブジェクトであっても、ポーズされた画像から幾何学、外観、意味情報を同時に予測することができる。
SegNeRFは、野生で撮影されたオブジェクトの1つのイメージから、対応する部分のセグメンテーションによって、明示的な3Dモデルを生成することができる。
論文 参考訳(メタデータ) (2022-11-21T07:16:03Z) - Unsupervised Multi-View Object Segmentation Using Radiance Field
Propagation [55.9577535403381]
本稿では,未ラベルのシーンの多視点画像のみを考慮し,再構成中の3次元オブジェクトのセグメント化に新たなアプローチを提案する。
提案手法の核となるのは,2方向光度損失を持つ個々の物体の放射界に対する新しい伝搬戦略である。
我々の知る限り、RFPはニューラルレイディアンスフィールド(NeRF)のための3次元シーンオブジェクトセグメンテーションに取り組むための最初の教師なしアプローチである。
論文 参考訳(メタデータ) (2022-10-02T11:14:23Z) - NeRF-SOS: Any-View Self-supervised Object Segmentation from Complex
Real-World Scenes [80.59831861186227]
本論文では,複雑な現実世界のシーンに対して,NeRFを用いたオブジェクトセグメンテーションのための自己教師型学習の探索を行う。
我々のフレームワークは、NeRF(NeRF with Self-supervised Object NeRF-SOS)と呼ばれ、NeRFモデルがコンパクトな幾何認識セグメンテーションクラスタを蒸留することを奨励している。
他の2Dベースの自己教師付きベースラインを一貫して上回り、既存の教師付きマスクよりも細かなセマンティクスマスクを予測する。
論文 参考訳(メタデータ) (2022-09-19T06:03:17Z) - LaTeRF: Label and Text Driven Object Radiance Fields [8.191404990730236]
シーン全体と既知のカメラポーズの2次元画像から興味の対象を抽出するLaTeRFを提案する。
シーンからオブジェクトを忠実に抽出するために、LaTeRFはNeRFの定式化を3Dポイントごとに追加のオブジェクト性確率で拡張する。
合成データと実データの両方で高忠実度オブジェクト抽出を実証する。
論文 参考訳(メタデータ) (2022-07-04T17:07:57Z) - ObPose: Leveraging Pose for Object-Centric Scene Inference and
Generation in 3D [21.700203922407496]
ObPoseは教師なしのオブジェクト中心の推論と生成モデルである。
RGB-Dシーンから3D構造化された潜在表現を学習する。
ObPoseは、YCB、MultiShapeNet、CLEVRデータセットで定量的に評価される。
論文 参考訳(メタデータ) (2022-06-07T21:15:18Z) - DONet: Learning Category-Level 6D Object Pose and Size Estimation from
Depth Observation [53.55300278592281]
単一深度画像からカテゴリレベルの6次元オブジェクト・ポースとサイズ推定(COPSE)を提案する。
筆者らのフレームワークは,深度チャネルのみの物体のリッチな幾何学的情報に基づいて推論を行う。
我々のフレームワークは、ラベル付き現実世界の画像を必要とする最先端のアプローチと競合する。
論文 参考訳(メタデータ) (2021-06-27T10:41:50Z) - FiG-NeRF: Figure-Ground Neural Radiance Fields for 3D Object Category
Modelling [11.432178728985956]
我々はNeural Radiance Fields (NeRF) を用いて、入力画像のコレクションから高品質な3Dオブジェクトカテゴリモデルを学習する。
本手法は,測光とカジュアルキャプチャによる画像のみを用いて,高精度な3dオブジェクトカテゴリモデルを学習できることを示す。
論文 参考訳(メタデータ) (2021-04-17T01:38:54Z) - iNeRF: Inverting Neural Radiance Fields for Pose Estimation [68.91325516370013]
Neural RadianceField(NeRF)を「反転」してメッシュフリーポーズ推定を行うフレームワークiNeRFを紹介します。
NeRFはビュー合成のタスクに極めて有効であることが示されている。
論文 参考訳(メタデータ) (2020-12-10T18:36:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。