論文の概要: Scaling Implicit Fields via Hypernetwork-Driven Multiscale Coordinate Transformations
- arxiv url: http://arxiv.org/abs/2511.18387v1
- Date: Sun, 23 Nov 2025 10:27:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.816396
- Title: Scaling Implicit Fields via Hypernetwork-Driven Multiscale Coordinate Transformations
- Title(参考訳): ハイパーネットワーク駆動型マルチスケールコーディネート変換によるインプリシトフィールドのスケーリング
- Authors: Plein Versace,
- Abstract要約: Inlicit Neural Representations (INR)は、画像、3次元形状、符号付き距離場、放射場などの信号を表現するための強力なパラダイムとして登場した。
この研究は、ハイパーネットワークを用いて信号適応座標変換を学習することにより、表現ボトルネックを破る新しいINRのクラスであるHyper-Coordinate Implicit Neural Representations (HC-INR)を導入している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implicit Neural Representations (INRs) have emerged as a powerful paradigm for representing signals such as images, 3D shapes, signed distance fields, and radiance fields. While significant progress has been made in architecture design (e.g., SIREN, FFC, KAN-based INRs) and optimization strategies (meta-learning, amortization, distillation), existing approaches still suffer from two core limitations: (1) a representation bottleneck that forces a single MLP to uniformly model heterogeneous local structures, and (2) limited scalability due to the absence of a hierarchical mechanism that dynamically adapts to signal complexity. This work introduces Hyper-Coordinate Implicit Neural Representations (HC-INR), a new class of INRs that break the representational bottleneck by learning signal-adaptive coordinate transformations using a hypernetwork. HC-INR decomposes the representation task into two components: (i) a learned multiscale coordinate transformation module that warps the input domain into a disentangled latent space, and (ii) a compact implicit field network that models the transformed signal with significantly reduced complexity. The proposed model introduces a hierarchical hypernetwork architecture that conditions coordinate transformations on local signal features, enabling dynamic allocation of representation capacity. We theoretically show that HC-INR strictly increases the upper bound of representable frequency bands while maintaining Lipschitz stability. Extensive experiments across image fitting, shape reconstruction, and neural radiance field approximation demonstrate that HC-INR achieves up to 4 times higher reconstruction fidelity than strong INR baselines while using 30--60\% fewer parameters.
- Abstract(参考訳): Inlicit Neural Representations (INR)は、画像、3次元形状、符号付き距離場、放射場などの信号を表現するための強力なパラダイムとして登場した。
アーキテクチャ設計 (SIREN, FFC, Kan-based INRs) や最適化戦略 (meta-learning, amortization, distillation) では大きな進歩があったが、既存のアプローチは依然として2つの中核的な制限を被っている。
この研究は、ハイパーネットワークを用いて信号適応座標変換を学習することにより、表現ボトルネックを破る新しいINRのクラスであるHyper-Coordinate Implicit Neural Representations (HC-INR)を導入している。
HC-INRは、表現タスクを2つのコンポーネントに分解する。
i)入力領域を非絡み合った潜在空間にワープする学習されたマルチスケール座標変換モジュール
(ii) 複雑度を著しく低減した変換信号のモデル化を行う,コンパクトな暗黙フィールドネットワーク。
提案モデルでは、局所的な信号特徴の変換を調整し、表現能力の動的割り当てを可能にする階層的ハイパーネットワークアーキテクチャを提案する。
HC-INRはリプシッツ安定性を維持しつつ、表現可能な周波数帯域の上限を厳密に増大させることを示す。
画像適合, 形状再構成, 神経放射場近似による広範囲な実験により, HC-INRは30~60倍のパラメータを用いて, 強いINRベースラインよりも最大4倍の再現忠実性が得られることが示された。
関連論文リスト
- Split-Layer: Enhancing Implicit Neural Representation by Maximizing the Dimensionality of Feature Space [31.379728211035314]
Inlicit Neural representation (INR) は、ニューラルネットワークを用いて信号を連続関数としてモデル化する。
ニューラルネットワークが特徴付ける機能の範囲によって定義されるINRの表現能力は、本質的に低次元の特徴空間によって制限される。
本稿では,多層パーセプトロンの新規な再構成であるスプリット層を提案する。
論文 参考訳(メタデータ) (2025-11-13T09:55:36Z) - F-INR: Functional Tensor Decomposition for Implicit Neural Representations [7.183424522250937]
Implicit Representation (INR) は、ニューラルネットワークを用いて離散信号を連続的に微分可能な関数に符号化する強力なツールとして登場した。
機能的分解によりINR学習を再構築し,高次元タスクを軽量な軸特化サブネットワークに分割するフレームワークF-INRを提案する。
論文 参考訳(メタデータ) (2025-03-27T13:51:31Z) - SL$^{2}$A-INR: Single-Layer Learnable Activation for Implicit Neural Representation [10.079590259767306]
Inlicit Neural Representation (INR)は、ニューラルネットワークを利用して、座標入力を対応する属性に変換することで、視覚関連領域において大きな進歩をもたらした。
我々は,INRアーキテクチャに新しいアプローチを導入することで,これらの課題を緩和できることを示す。
具体的には,シングルレイヤの学習可能なアクティベーション関数と従来のReLUアクティベーションを用いた合成を組み合わせたハイブリッドネットワークSL$2$A-INRを提案する。
論文 参考訳(メタデータ) (2024-09-17T02:02:15Z) - Attention Beats Linear for Fast Implicit Neural Representation Generation [13.203243059083533]
本稿では,局所的注意層(LAL)と大域的表現ベクトルからなる注意型局所INR(ANR)を提案する。
インスタンス固有の表現とインスタンスに依存しないANRパラメータにより、ターゲット信号は連続関数として十分に再構成される。
論文 参考訳(メタデータ) (2024-07-22T03:52:18Z) - ResFields: Residual Neural Fields for Spatiotemporal Signals [61.44420761752655]
ResFieldsは、複雑な時間的信号を効果的に表現するために設計された新しいネットワークのクラスである。
本稿では,ResFieldの特性を包括的に解析し,トレーニング可能なパラメータの数を減らすための行列分解手法を提案する。
スパースRGBDカメラからダイナミックな3Dシーンをキャプチャする効果を示すことで,ResFieldsの実用性を実証する。
論文 参考訳(メタデータ) (2023-09-06T16:59:36Z) - Factor Fields: A Unified Framework for Neural Fields and Beyond [50.29013417187368]
本稿では、信号のモデリングと表現のための新しいフレームワークであるFacter Fieldsを紹介する。
我々のフレームワークは、NeRF、Plenoxels、EG3D、Instant-NGP、TensoRFなどの最近の信号表現に対応している。
この表現は,2次元画像回帰作業における画像の近似精度の向上,3次元符号付き距離場再構築時の幾何学的品質の向上,および放射場再構成作業におけるコンパクト性の向上を実現している。
論文 参考訳(メタデータ) (2023-02-02T17:06:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。