論文の概要: TaylorGrid: Towards Fast and High-Quality Implicit Field Learning via
Direct Taylor-based Grid Optimization
- arxiv url: http://arxiv.org/abs/2402.14415v1
- Date: Thu, 22 Feb 2024 10:03:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-23 15:46:03.579226
- Title: TaylorGrid: Towards Fast and High-Quality Implicit Field Learning via
Direct Taylor-based Grid Optimization
- Title(参考訳): TaylorGrid: 直接Taylorベースのグリッド最適化による高速かつ高品質なフィールド学習を目指して
- Authors: Renyi Mao, Qingshan Xu, Peng Zheng, Ye Wang, Tieru Wu, Rui Ma
- Abstract要約: 2次元グリッドや3次元グリッド上で効率的に計算できる新しい暗黙の場表現であるTaylorGridを提案する。
一般的な表現として、TaylorGridはSDF学習やNeRFのような暗黙のフィールド学習タスクに適応することができる。
- 参考スコア(独自算出の注目度): 11.482866963693874
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Coordinate-based neural implicit representation or implicit fields have been
widely studied for 3D geometry representation or novel view synthesis.
Recently, a series of efforts have been devoted to accelerating the speed and
improving the quality of the coordinate-based implicit field learning. Instead
of learning heavy MLPs to predict the neural implicit values for the query
coordinates, neural voxels or grids combined with shallow MLPs have been
proposed to achieve high-quality implicit field learning with reduced
optimization time. On the other hand, lightweight field representations such as
linear grid have been proposed to further improve the learning speed. In this
paper, we aim for both fast and high-quality implicit field learning, and
propose TaylorGrid, a novel implicit field representation which can be
efficiently computed via direct Taylor expansion optimization on 2D or 3D
grids. As a general representation, TaylorGrid can be adapted to different
implicit fields learning tasks such as SDF learning or NeRF. From extensive
quantitative and qualitative comparisons, TaylorGrid achieves a balance between
the linear grid and neural voxels, showing its superiority in fast and
high-quality implicit field learning.
- Abstract(参考訳): 座標に基づくニューラル暗黙表現や暗黙の場は、3次元幾何学的表現や新しいビュー合成のために広く研究されている。
近年,コーディネートに基づく暗黙的フィールド学習の高速化と品質向上に向け,一連の取り組みが進められている。
クエリ座標の暗黙的値を予測するために重いMLPを学習する代わりに、浅いMLPと組み合わせたニューラルネットワークボクセルやグリッドが、最適化時間を短縮して高品質な暗黙的フィールド学習を実現するために提案されている。
一方,学習速度をさらに向上させるために,線形格子などの軽量な場表現が提案されている。
本稿では,高速かつ高品質な暗黙的場学習を目標とし,2次元あるいは3次元グリッド上で直接テイラー展開最適化により効率よく計算できる新しい暗黙的場表現であるTaylorGridを提案する。
一般的な表現として、TaylorGridはSDF学習やNeRFのような暗黙のフィールド学習タスクに適応することができる。
広範囲な量的・質的比較から、taylorgridは線形グリッドと神経ボクセルのバランスを実現し、高速で高品質な暗黙的フィールド学習においてその優位性を示している。
関連論文リスト
- Geometric Algebra Planes: Convex Implicit Neural Volumes [70.12234371845445]
GA-Planes はスパース低ランク係数と低分解能行列と等価であることを示す。
また,GA-Planeは既存の表現にも適用可能であることを示す。
論文 参考訳(メタデータ) (2024-11-20T18:21:58Z) - Mip-Grid: Anti-aliased Grid Representations for Neural Radiance Fields [12.910072009005065]
我々は、反エイリアス手法をグリッドベースの放射場表現に組み込む新しいアプローチであるmip-blurを提案する。
提案手法は,共有グリッド表現上に単純な畳み込み演算を適用してマルチスケールグリッドを生成する。
論文 参考訳(メタデータ) (2024-02-22T00:45:40Z) - GridPull: Towards Scalability in Learning Implicit Representations from
3D Point Clouds [60.27217859189727]
大規模クラウドから暗黙の表現を学習する効率を改善するため,GridPullを提案する。
我々の斬新さは、ニューラルネットワークを使わずにグリッド上に定義された離散距離場の高速な推論にある。
我々は、一様格子を用いて高速グリッド探索を行い、サンプルクエリをローカライズし、木構造内の表面点を整理し、表面への距離の計算を高速化する。
論文 参考訳(メタデータ) (2023-08-25T04:52:52Z) - Dynamic Voxel Grid Optimization for High-Fidelity RGB-D Supervised
Surface Reconstruction [130.84162691963536]
高忠実度3次元表面再構成のための新しい動的グリッド最適化手法を提案する。
グリッドを動的に修正し、より複雑な領域により微細なボクセルを割り当てることで、プロセスを最適化する。
提案手法は, 合成データと実世界のデータの両方を詳細に記述した高品質な3D再構成を実現する。
論文 参考訳(メタデータ) (2023-04-12T22:39:57Z) - 3D Human Pose Lifting with Grid Convolution [20.60797374692489]
本稿では,画像空間における正規畳み込み操作の知恵を模倣したグリッド畳み込み(GridConv)を提案する。
我々の完全畳み込みグリッドリフトネットワークは、最先端の手法よりも顕著なマージンで優れていることを示す。
論文 参考訳(メタデータ) (2023-02-17T08:52:16Z) - Neural Deformable Voxel Grid for Fast Optimization of Dynamic View
Synthesis [63.25919018001152]
動的シーンを扱うための高速な変形可能な放射場法を提案する。
本手法は訓練に20分しかかからないD-NeRFに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2022-06-15T17:49:08Z) - ReLU Fields: The Little Non-linearity That Could [62.228229880658404]
我々は,高忠実度結果の保持を可能にするグリッドベース表現に対する最小の変更点について検討する。
このようなアプローチが最先端技術と競合することを示します。
論文 参考訳(メタデータ) (2022-05-22T13:42:31Z) - Learning Smooth Neural Functions via Lipschitz Regularization [92.42667575719048]
ニューラルフィールドにおけるスムーズな潜伏空間を促進するために設計された新しい正規化を導入する。
従来のリプシッツ正規化ネットワークと比較して、我々のアルゴリズムは高速で、4行のコードで実装できる。
論文 参考訳(メタデータ) (2022-02-16T21:24:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。