論文の概要: Color-NeuS: Reconstructing Neural Implicit Surfaces with Color
- arxiv url: http://arxiv.org/abs/2308.06962v2
- Date: Tue, 19 Dec 2023 14:29:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 23:36:40.750987
- Title: Color-NeuS: Reconstructing Neural Implicit Surfaces with Color
- Title(参考訳): Color-NeuS:カラーによるニューラルインプリシト表面の再構成
- Authors: Licheng Zhong, Lixin Yang, Kailin Li, Haoyu Zhen, Mei Han, Cewu Lu
- Abstract要約: 多視点画像やモノクロ映像から物体表面を再構成する手法を開発した。
我々は、リライトネットワークを介してボリュームレンダリング性能を維持しながら、ビュー依存色をニューラルボリュームレンダリングから除去する。
その結果、メッシュをカラーで再構築できる既存の手法に勝る結果となった。
- 参考スコア(独自算出の注目度): 46.90825914361547
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The reconstruction of object surfaces from multi-view images or monocular
video is a fundamental issue in computer vision. However, much of the recent
research concentrates on reconstructing geometry through implicit or explicit
methods. In this paper, we shift our focus towards reconstructing mesh in
conjunction with color. We remove the view-dependent color from neural volume
rendering while retaining volume rendering performance through a relighting
network. Mesh is extracted from the signed distance function (SDF) network for
the surface, and color for each surface vertex is drawn from the global color
network. To evaluate our approach, we conceived a in hand object scanning task
featuring numerous occlusions and dramatic shifts in lighting conditions. We've
gathered several videos for this task, and the results surpass those of any
existing methods capable of reconstructing mesh alongside color. Additionally,
our method's performance was assessed using public datasets, including DTU,
BlendedMVS, and OmniObject3D. The results indicated that our method performs
well across all these datasets. Project page:
https://colmar-zlicheng.github.io/color_neus.
- Abstract(参考訳): 多視点画像やモノクロ映像からの物体表面の再構成は、コンピュータビジョンの基本的な問題である。
しかし、最近の研究の多くは、暗黙的あるいは明示的な方法による幾何学の再構築に集中している。
本稿では,色に合わせてメッシュの再構築に焦点を移す。
我々は、リライトネットワークを介してボリュームレンダリング性能を維持しながら、ビュー依存色をニューラルボリュームレンダリングから除去する。
表面の符号付き距離関数(SDF)ネットワークからメッシュを抽出し、グローバルカラーネットワークから各表面頂点の色を描画する。
提案手法を評価するため,照明条件に多数の閉塞や劇的な変化を伴う手動物体スキャンタスクを考案した。
このタスクのためにいくつかのビデオを集めましたが、結果はメッシュをカラーで再構築できる既存の方法よりも優れています。
さらに,DTU,BlendedMVS,OmniObject3Dなどの公開データセットを用いて評価を行った。
その結果,本手法はすべてのデータセットに対して良好に動作することがわかった。
プロジェクトページ: https://colmar-zlicheng.github.io/color_neus。
関連論文リスト
- ASGrasp: Generalizable Transparent Object Reconstruction and Grasping from RGB-D Active Stereo Camera [9.212504138203222]
RGB-Dアクティブステレオカメラを用いた6自由度グリップ検出ネットワークASGraspを提案する。
本システムでは, 透明物体形状再構成において, 生のIRおよびRGB画像を直接利用できることで, 自己を識別する。
実験により、ASGraspは、一般化可能な透明物体把握において90%以上の成功率を達成できることが示された。
論文 参考訳(メタデータ) (2024-05-09T09:44:51Z) - Total-Decom: Decomposed 3D Scene Reconstruction with Minimal Interaction [51.3632308129838]
人間のインタラクションを最小限に抑えた3次元再構成法であるTotal-Decomを提案する。
提案手法は,Segment Anything Model (SAM) とハイブリッド型暗黙的なニューラルサーフェス表現をシームレスに統合し,メッシュベースの領域成長技術を用いて正確な3次元オブジェクト分解を行う。
提案手法をベンチマークデータセット上で広範囲に評価し,アニメーションやシーン編集などの下流アプリケーションの可能性を示す。
論文 参考訳(メタデータ) (2024-03-28T11:12:33Z) - NeRF-DS: Neural Radiance Fields for Dynamic Specular Objects [63.04781030984006]
ダイナミック・ニューラル・ラジアンス・フィールド(英語版)(NeRF)は、動的シーンの単眼RGBビデオからフォトリアリスティック・ノベル・ビュー・イメージをレンダリングできる強力なアルゴリズムである。
観測空間の表面位置と配向に条件付される神経放射場関数を再構成することにより,その限界に対処する。
本研究では,現実的な環境下での異なる移動スペクトルオブジェクトの自己合成データセットを用いて,新しいビュー合成品質に基づくモデルの評価を行った。
論文 参考訳(メタデータ) (2023-03-25T11:03:53Z) - Learning a Room with the Occ-SDF Hybrid: Signed Distance Function
Mingled with Occupancy Aids Scene Representation [46.635542063913185]
符号付き距離関数表現と幾何学的先行表現を用いた暗黙的ニューラルレンダリングは、大規模シーンの表面再構成において顕著な進歩をもたらした。
我々は,原色レンダリング損失と先行組込みSDFシーン表現の限界を識別する実験を行った。
非ゼロな特徴値を用いて最適化信号を返却する特徴ベースの色レンダリング損失を提案する。
論文 参考訳(メタデータ) (2023-03-16T08:34:02Z) - Generative Scene Synthesis via Incremental View Inpainting using RGBD
Diffusion Models [39.23531919945332]
本研究では,カメラ軌道に沿って新しいRGBDビューを順次生成する新しい手法を提案する。
各レンダリングされたRGBDビューは、後に部分曲面としてバックプロジェクションされ、中間メッシュに補完される。
中間メッシュとカメラプロジェクションの使用は、多視点不整合の屈折問題を解くのに役立つ。
論文 参考訳(メタデータ) (2022-12-12T15:50:00Z) - Efficient Textured Mesh Recovery from Multiple Views with Differentiable
Rendering [8.264851594332677]
マルチビュー画像からテクスチャメッシュを復元する手法を提案する。
学習ベース多視点ステレオアルゴリズムにより予測される深度との差を最小化することにより形状形状を最適化する。
形状や色に対する暗黙的なニューラル表現とは対照的に,物体の光と反射を共同で推定する物理ベース逆レンダリング方式を導入する。
論文 参考訳(メタデータ) (2022-05-25T03:33:55Z) - High-resolution Iterative Feedback Network for Camouflaged Object
Detection [128.893782016078]
カモフラージュされたオブジェクトを背景に視覚的に同化させることは、オブジェクト検出アルゴリズムにとって難しい。
エッジやバウンダリのぼやけた視界を生じさせる細部劣化を避けるために,高分解能テクスチャの詳細を抽出することを目的としている。
我々は,高解像度特徴量による低解像度表現を反復的フィードバック方式で洗練する新しいHitNetを提案する。
論文 参考訳(メタデータ) (2022-03-22T11:20:21Z) - NeRS: Neural Reflectance Surfaces for Sparse-view 3D Reconstruction in
the Wild [80.09093712055682]
ニューラルリフレクタンスサーフェス(NeRS)と呼ばれる暗黙モデルの表面アナログを導入する。
NeRSは、球に微分される閉じた表面の神経形状の表現を学び、水密な再構成を保証する。
このようなデータから学習可能な表面ベースニューラル再構成は,体積的ニューラルレンダリングに基づく再構成よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-14T17:59:58Z) - Neural RGB-D Surface Reconstruction [15.438678277705424]
神経放射場を学習する手法は驚くべき画像合成結果を示しているが、基礎となる幾何学表現は実際の幾何学の粗い近似にすぎない。
本研究では, より詳細な再現結果を得るために, 深度測定を放射場定式化に組み込む方法を示す。
論文 参考訳(メタデータ) (2021-04-09T18:00:01Z) - Unsupervised Learning of 3D Object Categories from Videos in the Wild [75.09720013151247]
オブジェクトインスタンスの大規模なコレクションの複数のビューからモデルを学ぶことに重点を置いています。
再構成を大幅に改善するワープコンディショニングレイ埋め込み(WCR)と呼ばれる新しいニューラルネットワーク設計を提案する。
本評価は,既存のベンチマークを用いた複数の深部単眼再構成ベースラインに対する性能改善を示す。
論文 参考訳(メタデータ) (2021-03-30T17:57:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。