論文の概要: From Transparent to Opaque: Rethinking Neural Implicit Surfaces with $α$-NeuS
- arxiv url: http://arxiv.org/abs/2411.05362v2
- Date: Mon, 20 Jan 2025 08:59:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:16:34.577739
- Title: From Transparent to Opaque: Rethinking Neural Implicit Surfaces with $α$-NeuS
- Title(参考訳): 透明から透明へ:$α$-NeuSでニューラル・インシシデント・サーフェスを再考
- Authors: Haoran Zhang, Junkai Deng, Xuhui Chen, Fei Hou, Wencheng Wang, Hong Qin, Chen Qian, Ying He,
- Abstract要約: 本稿では、NeuSの拡張である$alpha$-Neusを紹介します。
我々は,DFに基づいて透明で不透明な表面を同時に抽出する手法を開発し,実世界のシーンと合成シーンの両方を含むベンチマークを構築した。
- 参考スコア(独自算出の注目度): 41.38491898098891
- License:
- Abstract: Traditional 3D shape reconstruction techniques from multi-view images, such as structure from motion and multi-view stereo, face challenges in reconstructing transparent objects. Recent advances in neural radiance fields and its variants primarily address opaque or transparent objects, encountering difficulties to reconstruct both transparent and opaque objects simultaneously. This paper introduces $\alpha$-Neus -- an extension of NeuS -- that proves NeuS is unbiased for materials from fully transparent to fully opaque. We find that transparent and opaque surfaces align with the non-negative local minima and the zero iso-surface, respectively, in the learned distance field of NeuS. Traditional iso-surfacing extraction algorithms, such as marching cubes, which rely on fixed iso-values, are ill-suited for such data. We develop a method to extract the transparent and opaque surface simultaneously based on DCUDF. To validate our approach, we construct a benchmark that includes both real-world and synthetic scenes, demonstrating its practical utility and effectiveness. Our data and code are publicly available at https://github.com/728388808/alpha-NeuS.
- Abstract(参考訳): 多視点画像からの3次元形状再構成技術は, 透明な物体を再構成する際の課題に直面している。
近年の神経放射場とその変種は、主に不透明または透明な物体に対処しており、透明と不透明の両方の物体を同時に再構築する困難に直面している。
本稿では、NeuSの拡張である$\alpha$-Neusを紹介します。
我々は,NeuSの学習距離場において,透明面と不透明面が,非負の局所最小値とゼロの等方面とに一致していることを発見した。
固定されたアイソ値に依存するマーチングキューブのような従来のアイソ面抽出アルゴリズムは、そのようなデータには不適である。
DCUDFに基づいて透明で不透明な表面を同時に抽出する手法を開発した。
提案手法の有効性を実証するため,実世界のシーンと合成シーンの両方を含むベンチマークを構築し,その実用性と有効性を示す。
私たちのデータとコードはhttps://github.com/728388808/alpha-NeuS.comで公開されています。
関連論文リスト
- Binary Opacity Grids: Capturing Fine Geometric Detail for Mesh-Based
View Synthesis [70.40950409274312]
我々は、細い構造を再構築する能力を損なうことなく、表面への収束を促すために密度場を変更する。
また, メッシュの単純化と外観モデルの適合により, 融合型メッシュ方式を開発した。
私たちのモデルで生成されたコンパクトメッシュは、モバイルデバイス上でリアルタイムでレンダリングできます。
論文 参考訳(メタデータ) (2024-02-19T18:59:41Z) - Neural Radiance Fields for Transparent Object Using Visual Hull [0.8158530638728501]
最近導入されたNeural Radiance Fields (NeRF) はビュー合成法である。
まず,透明物体の3次元形状を視覚的包絡を用いて再構成する。
第二に、スネルの法則に従って透明物体の内部の光線の屈折をシミュレートする。最後に、屈折した光線を通して点をサンプリングし、それをNeRFに挿入する。
論文 参考訳(メタデータ) (2023-12-13T13:15:19Z) - Transparent Object Tracking with Enhanced Fusion Module [56.403878717170784]
我々は,我々の融合技術を用いて,透明物体追跡のための優れた結果を得る新しいトラッカーアーキテクチャを提案する。
我々の結果とコードの実装はhttps://github.com/kalyan05TOTEM.comで公開されます。
論文 参考訳(メタデータ) (2023-09-13T03:52:09Z) - Seeing Through the Glass: Neural 3D Reconstruction of Object Inside a
Transparent Container [61.50401406132946]
透明な囲いは、異なる伝搬媒質間の界面に複数の光反射と屈折の挑戦を引き起こす。
我々は、内部部分空間の幾何学と外観を暗黙的に表現する既存のニューラル再構成法(NeuS)を用いる。
複雑な光相互作用を説明するため,ボリュームレンダリングとレイトレーシングを組み合わせたハイブリッドレンダリング戦略を開発した。
論文 参考訳(メタデータ) (2023-03-24T04:58:27Z) - NeAT: Learning Neural Implicit Surfaces with Arbitrary Topologies from
Multi-view Images [17.637064969966847]
NeATは、多視点画像から任意のトポロジを持つ暗黙の曲面を学習する、新しいニューラルネットワークレンダリングフレームワークである。
NeATは、古典的なマーチングキューブアルゴリズムを用いて、フィールドからメッシュへの変換を容易にする。
我々のアプローチは、水密面と非水密面の両方を忠実に再構築することができる。
論文 参考訳(メタデータ) (2023-03-21T16:49:41Z) - NeTO:Neural Reconstruction of Transparent Objects with Self-Occlusion
Aware Refraction-Tracing [44.22576861939435]
ボリュームレンダリングによる2次元画像から固体透明物体の3次元形状を抽出する新手法NeTOを提案する。
提案手法は, 忠実な復元結果を達成し, 先行作業よりも大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2023-03-20T15:50:00Z) - TransMatting: Enhancing Transparent Objects Matting with Transformers [4.012340049240327]
本研究では,トランスフォーマーをベースとしたトランスマターネットワークを提案し,大きな受容場を持つ透明なオブジェクトをモデル化する。
エンコーダからデコーダへのマルチスケール特徴伝搬を導くために,グローバル機能と非バックグラウンドマスクを利用するために,小さな畳み込みネットワークを提案する。
我々は、小さなフォアグラウンド領域を持つ透明物体の高分解能マッチングデータセットを作成する。
論文 参考訳(メタデータ) (2022-08-05T06:44:14Z) - One Ring to Rule Them All: a simple solution to multi-view
3D-Reconstruction of shapes with unknown BRDF via a small Recurrent ResNet [96.11203962525443]
本論文では, 表面材料が不明な物体に対して, マルチビュー3D-Reviewの解法を提案する。
オブジェクトは任意に(例えば)持つことができる。
非ランベルティアン)、空間的に変動する(またはどこでも異なる)表面反射率(svBRDF)
提案手法は, 新たな視点合成, リライト, 材料リライト, 形状交換を伴わずに行う。
論文 参考訳(メタデータ) (2021-04-11T13:39:31Z) - RGB-D Local Implicit Function for Depth Completion of Transparent
Objects [43.238923881620494]
ロボット工学における認識方法の大部分は、RGB-Dカメラが提供する深度情報を必要とする。
標準的な3Dセンサーは、屈折と光の吸収により透明な物体の深さを捉えられない。
ノイズの多いRGB-D入力を考慮し,欠損深度を完備できる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-01T17:00:04Z) - Through the Looking Glass: Neural 3D Reconstruction of Transparent
Shapes [75.63464905190061]
屈折と反射によって誘導される複雑な光路は、従来の多視点ステレオと深いステレオの両方がこの問題を解決するのを妨げている。
携帯電話カメラで取得したいくつかの画像を用いて透明物体の3次元形状を復元する物理ネットワークを提案する。
5-12個の自然画像を用いて, 複雑な透明形状に対する高品質な3次元形状の復元に成功した。
論文 参考訳(メタデータ) (2020-04-22T23:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。