論文の概要: From Transparent to Opaque: Rethinking Neural Implicit Surfaces with $α$-NeuS
- arxiv url: http://arxiv.org/abs/2411.05362v1
- Date: Fri, 08 Nov 2024 06:36:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-11 14:54:30.995790
- Title: From Transparent to Opaque: Rethinking Neural Implicit Surfaces with $α$-NeuS
- Title(参考訳): 透明から透明へ:$α$-NeuSでニューラル・インシシデント・サーフェスを再考
- Authors: Haoran Zhang, Junkai Deng, Xuhui Chen, Fei Hou, Wencheng Wang, Hong Qin, Chen Qian, Ying He,
- Abstract要約: 本稿では,ニューラル暗黙表面(NeuS)に基づく透明な物体と不透明な物体を再構成する新しい手法である$alpha$-NeuSを紹介する。
固定されたアイソ値に依存するマーチングキューブのような従来のアイソ対向アルゴリズムは、このデータには不適である。
再構成された表面は透明な物体と不透明な物体の両方に対して不偏であることを示す。
- 参考スコア(独自算出の注目度): 41.38491898098891
- License:
- Abstract: Traditional 3D shape reconstruction techniques from multi-view images, such as structure from motion and multi-view stereo, primarily focus on opaque surfaces. Similarly, recent advances in neural radiance fields and its variants also primarily address opaque objects, encountering difficulties with the complex lighting effects caused by transparent materials. This paper introduces $\alpha$-NeuS, a new method for simultaneously reconstructing thin transparent objects and opaque objects based on neural implicit surfaces (NeuS). Our method leverages the observation that transparent surfaces induce local extreme values in the learned distance fields during neural volumetric rendering, contrasting with opaque surfaces that align with zero level sets. Traditional iso-surfacing algorithms such as marching cubes, which rely on fixed iso-values, are ill-suited for this data. We address this by taking the absolute value of the distance field and developing an optimization method that extracts level sets corresponding to both non-negative local minima and zero iso-values. We prove that the reconstructed surfaces are unbiased for both transparent and opaque objects. To validate our approach, we construct a benchmark that includes both real-world and synthetic scenes, demonstrating its practical utility and effectiveness. Our data and code are publicly available at https://github.com/728388808/alpha-NeuS.
- Abstract(参考訳): 従来の3次元形状再構成技術は、動きからの構造や多視点ステレオなど、不透明な面に主眼を置いている。
同様に、近年の神経放射場とその変種は、透明な物質によって引き起こされる複雑な照明効果に苦しむ不透明な物体にも主に対処している。
本稿では,ニューラル暗黙表面(NeuS)に基づく透明な物体と不透明な物体を同時に再構成する新しい手法である$\alpha$-NeuSを紹介する。
本手法では, 透明表面は, ゼロレベルセットと整合する不透明表面と対比して, 学習した距離場の局所的な極値を生成する。
固定されたアイソ値に依存するマーチングキューブのような従来のアイソ対向アルゴリズムは、このデータには不適である。
距離場の絶対値を取り、非負の局所最小値とゼロの等値の両方に対応するレベル集合を抽出する最適化手法を開発することにより、この問題に対処する。
再構成された表面は透明な物体と不透明な物体の両方に対して不偏であることを示す。
提案手法の有効性を実証するため,実世界のシーンと合成シーンの両方を含むベンチマークを構築し,その実用性と有効性を示す。
私たちのデータとコードはhttps://github.com/728388808/alpha-NeuS.comで公開されています。
関連論文リスト
- Binary Opacity Grids: Capturing Fine Geometric Detail for Mesh-Based
View Synthesis [70.40950409274312]
我々は、細い構造を再構築する能力を損なうことなく、表面への収束を促すために密度場を変更する。
また, メッシュの単純化と外観モデルの適合により, 融合型メッシュ方式を開発した。
私たちのモデルで生成されたコンパクトメッシュは、モバイルデバイス上でリアルタイムでレンダリングできます。
論文 参考訳(メタデータ) (2024-02-19T18:59:41Z) - Neural Radiance Fields for Transparent Object Using Visual Hull [0.8158530638728501]
最近導入されたNeural Radiance Fields (NeRF) はビュー合成法である。
まず,透明物体の3次元形状を視覚的包絡を用いて再構成する。
第二に、スネルの法則に従って透明物体の内部の光線の屈折をシミュレートする。最後に、屈折した光線を通して点をサンプリングし、それをNeRFに挿入する。
論文 参考訳(メタデータ) (2023-12-13T13:15:19Z) - Transparent Object Tracking with Enhanced Fusion Module [56.403878717170784]
我々は,我々の融合技術を用いて,透明物体追跡のための優れた結果を得る新しいトラッカーアーキテクチャを提案する。
我々の結果とコードの実装はhttps://github.com/kalyan05TOTEM.comで公開されます。
論文 参考訳(メタデータ) (2023-09-13T03:52:09Z) - Seeing Through the Glass: Neural 3D Reconstruction of Object Inside a
Transparent Container [61.50401406132946]
透明な囲いは、異なる伝搬媒質間の界面に複数の光反射と屈折の挑戦を引き起こす。
我々は、内部部分空間の幾何学と外観を暗黙的に表現する既存のニューラル再構成法(NeuS)を用いる。
複雑な光相互作用を説明するため,ボリュームレンダリングとレイトレーシングを組み合わせたハイブリッドレンダリング戦略を開発した。
論文 参考訳(メタデータ) (2023-03-24T04:58:27Z) - NeAT: Learning Neural Implicit Surfaces with Arbitrary Topologies from
Multi-view Images [17.637064969966847]
NeATは、多視点画像から任意のトポロジを持つ暗黙の曲面を学習する、新しいニューラルネットワークレンダリングフレームワークである。
NeATは、古典的なマーチングキューブアルゴリズムを用いて、フィールドからメッシュへの変換を容易にする。
我々のアプローチは、水密面と非水密面の両方を忠実に再構築することができる。
論文 参考訳(メタデータ) (2023-03-21T16:49:41Z) - NeTO:Neural Reconstruction of Transparent Objects with Self-Occlusion
Aware Refraction-Tracing [44.22576861939435]
ボリュームレンダリングによる2次元画像から固体透明物体の3次元形状を抽出する新手法NeTOを提案する。
提案手法は, 忠実な復元結果を達成し, 先行作業よりも大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2023-03-20T15:50:00Z) - TransMatting: Enhancing Transparent Objects Matting with Transformers [4.012340049240327]
本研究では,トランスフォーマーをベースとしたトランスマターネットワークを提案し,大きな受容場を持つ透明なオブジェクトをモデル化する。
エンコーダからデコーダへのマルチスケール特徴伝搬を導くために,グローバル機能と非バックグラウンドマスクを利用するために,小さな畳み込みネットワークを提案する。
我々は、小さなフォアグラウンド領域を持つ透明物体の高分解能マッチングデータセットを作成する。
論文 参考訳(メタデータ) (2022-08-05T06:44:14Z) - One Ring to Rule Them All: a simple solution to multi-view
3D-Reconstruction of shapes with unknown BRDF via a small Recurrent ResNet [96.11203962525443]
本論文では, 表面材料が不明な物体に対して, マルチビュー3D-Reviewの解法を提案する。
オブジェクトは任意に(例えば)持つことができる。
非ランベルティアン)、空間的に変動する(またはどこでも異なる)表面反射率(svBRDF)
提案手法は, 新たな視点合成, リライト, 材料リライト, 形状交換を伴わずに行う。
論文 参考訳(メタデータ) (2021-04-11T13:39:31Z) - RGB-D Local Implicit Function for Depth Completion of Transparent
Objects [43.238923881620494]
ロボット工学における認識方法の大部分は、RGB-Dカメラが提供する深度情報を必要とする。
標準的な3Dセンサーは、屈折と光の吸収により透明な物体の深さを捉えられない。
ノイズの多いRGB-D入力を考慮し,欠損深度を完備できる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-01T17:00:04Z) - Through the Looking Glass: Neural 3D Reconstruction of Transparent
Shapes [75.63464905190061]
屈折と反射によって誘導される複雑な光路は、従来の多視点ステレオと深いステレオの両方がこの問題を解決するのを妨げている。
携帯電話カメラで取得したいくつかの画像を用いて透明物体の3次元形状を復元する物理ネットワークを提案する。
5-12個の自然画像を用いて, 複雑な透明形状に対する高品質な3次元形状の復元に成功した。
論文 参考訳(メタデータ) (2020-04-22T23:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。