論文の概要: NeSF: Neural Semantic Fields for Generalizable Semantic Segmentation of
3D Scenes
- arxiv url: http://arxiv.org/abs/2111.13260v2
- Date: Mon, 29 Nov 2021 15:30:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 14:18:25.945521
- Title: NeSF: Neural Semantic Fields for Generalizable Semantic Segmentation of
3D Scenes
- Title(参考訳): NeSF:3次元シーンの汎用セマンティックセマンティックセグメンテーションのためのニューラルセマンティックフィールド
- Authors: Suhani Vora and Noha Radwan and Klaus Greff and Henning Meyer and Kyle
Genova and Mehdi S. M. Sajjadi and Etienne Pot and Andrea Tagliasacchi and
Daniel Duckworth
- Abstract要約: NeSFは、ポーズされたRGB画像のみから3Dセマンティックフィールドを生成する方法である。
本手法は,訓練に2次元の監督しか必要としない,真に密集した3次元シーンセグメンテーションを提供する最初の方法である。
- 参考スコア(独自算出の注目度): 25.26518805603798
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present NeSF, a method for producing 3D semantic fields from posed RGB
images alone. In place of classical 3D representations, our method builds on
recent work in implicit neural scene representations wherein 3D structure is
captured by point-wise functions. We leverage this methodology to recover 3D
density fields upon which we then train a 3D semantic segmentation model
supervised by posed 2D semantic maps. Despite being trained on 2D signals
alone, our method is able to generate 3D-consistent semantic maps from novel
camera poses and can be queried at arbitrary 3D points. Notably, NeSF is
compatible with any method producing a density field, and its accuracy improves
as the quality of the density field improves. Our empirical analysis
demonstrates comparable quality to competitive 2D and 3D semantic segmentation
baselines on complex, realistically rendered synthetic scenes. Our method is
the first to offer truly dense 3D scene segmentations requiring only 2D
supervision for training, and does not require any semantic input for inference
on novel scenes. We encourage the readers to visit the project website.
- Abstract(参考訳): 提案するNeSFは,RGB画像のみから3Dセマンティックフィールドを生成する手法である。
従来の3D表現の代わりに、3D構造をポイントワイズ関数で捉えた暗黙のニューラルシーン表現の最近の研究に基づいている。
この手法を用いて3次元密度場を復元し,ポーズ付き2次元意味マップを用いて3次元意味セグメンテーションモデルを学習する。
2D信号だけで訓練されているにもかかわらず、新しいカメラのポーズから3D一貫性のあるセマンティックマップを生成することができ、任意の3Dポイントでクエリできる。
特に、NeSFは密度場を生成する方法と互換性があり、密度場の品質が向上するにつれて精度が向上する。
実験結果から,複雑でリアルに表現された合成シーンにおいて,競合する2次元および3次元意味セグメンテーションベースラインと同等の品質を示す。
本手法は,真に高密度な3dシーンセグメンテーションを提供する最初の方法であり,新たなシーンにおける推論のための意味的入力は不要である。
私たちは読者にプロジェクトのウェブサイトを訪れるよう勧めます。
関連論文リスト
- MOSE: Monocular Semantic Reconstruction Using NeRF-Lifted Noisy Priors [11.118490283303407]
画像レベルの雑音を3次元に引き上げるニューラルネットワークセマンティック・リコンストラクション手法を提案する。
本手法は3次元空間と2次元空間の両方で正確な意味論と幾何学を生成する。
論文 参考訳(メタデータ) (2024-09-21T05:12:13Z) - Rethinking Open-Vocabulary Segmentation of Radiance Fields in 3D Space [10.49905491984899]
本稿では,NeRFと3DGSでモデル化されたシーンの3次元理解を向上する上での課題を再考する。
言語埋め込みフィールドをトレーニングするために、直接3Dポイントを監督します。
マルチスケールの言語埋め込みに頼ることなく、最先端の精度を実現する。
論文 参考訳(メタデータ) (2024-08-14T09:50:02Z) - WildFusion: Learning 3D-Aware Latent Diffusion Models in View Space [77.92350895927922]
潜在拡散モデル(LDM)に基づく3次元画像合成の新しいアプローチであるWildFusionを提案する。
我々の3D対応LCMは、マルチビュー画像や3D幾何学を直接監督することなく訓練されている。
これにより、スケーラブルな3D認識画像合成と、Wild画像データから3Dコンテンツを作成するための有望な研究道が開かれる。
論文 参考訳(メタデータ) (2023-11-22T18:25:51Z) - PonderV2: Pave the Way for 3D Foundation Model with A Universal
Pre-training Paradigm [114.47216525866435]
本稿では,効率的な3D表現の獲得を容易にするために,新しいユニバーサル3D事前学習フレームワークを提案する。
PonderV2は、11の室内および屋外ベンチマークで最先端のパフォーマンスを達成したことで、その効果が示唆された。
論文 参考訳(メタデータ) (2023-10-12T17:59:57Z) - SSR-2D: Semantic 3D Scene Reconstruction from 2D Images [54.46126685716471]
本研究では,3Dアノテーションを使わずにセマンティックなシーン再構成を行う中心的な3Dシーンモデリングタスクについて検討する。
提案手法の鍵となる考え方は,不完全な3次元再構成と対応するRGB-D画像の両方を用いたトレーニング可能なモデルの設計である。
本研究では,2つの大規模ベンチマークデータセットであるMatterPort3DとScanNetに対して,セマンティックシーン補完の最先端性能を実現する。
論文 参考訳(メタデータ) (2023-02-07T17:47:52Z) - MvDeCor: Multi-view Dense Correspondence Learning for Fine-grained 3D
Segmentation [91.6658845016214]
そこで本研究では,2次元領域における自己教師型手法を,微細な3次元形状分割作業に活用することを提案する。
複数のビューから3次元形状を描画し、コントラスト学習フレームワーク内に密接な対応学習タスクを設置する。
その結果、学習された2次元表現はビュー不変であり、幾何学的に一貫性がある。
論文 参考訳(メタデータ) (2022-08-18T00:48:15Z) - 3D-Aware Indoor Scene Synthesis with Depth Priors [62.82867334012399]
既存の手法では、室内配置や内部の物体の多様さのため、屋内シーンのモデル化に失敗する。
室内のシーンは共通な内在構造を持たず、2次元画像のみを用いるだけでは3次元形状のモデルが適切にガイドできない。
論文 参考訳(メタデータ) (2022-02-17T09:54:29Z) - Semantic Correspondence via 2D-3D-2D Cycle [58.023058561837686]
本稿では,3次元領域に利用して意味的対応を予測するための新しい手法を提案する。
提案手法は,標準的なセマンティックベンチマークにおいて比較,さらに優れた結果を与えることを示す。
論文 参考訳(メタデータ) (2020-04-20T05:27:45Z) - Semantic Implicit Neural Scene Representations With Semi-Supervised
Training [47.61092265963234]
その結果,暗黙的なシーン表現がポイントごとのセマンティックセマンティックセグメンテーションに活用できることが示唆された。
我々の手法は単純で汎用的で、数個のラベル付き2Dセグメンテーションマスクしか必要としない。
意味的に認識された暗黙的なニューラルシーン表現のための2つの新しい応用を探索する。
論文 参考訳(メタデータ) (2020-03-28T00:43:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。