論文の概要: Split-Layer: Enhancing Implicit Neural Representation by Maximizing the Dimensionality of Feature Space
- arxiv url: http://arxiv.org/abs/2511.10142v1
- Date: Fri, 14 Nov 2025 01:35:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.714595
- Title: Split-Layer: Enhancing Implicit Neural Representation by Maximizing the Dimensionality of Feature Space
- Title(参考訳): Split-Layer: 特徴空間の次元の最大化によるインプシットニューラル表現の強化
- Authors: Zhicheng Cai, Hao Zhu, Linsen Chen, Qiu Shen, Xun Cao,
- Abstract要約: Inlicit Neural representation (INR) は、ニューラルネットワークを用いて信号を連続関数としてモデル化する。
ニューラルネットワークが特徴付ける機能の範囲によって定義されるINRの表現能力は、本質的に低次元の特徴空間によって制限される。
本稿では,多層パーセプトロンの新規な再構成であるスプリット層を提案する。
- 参考スコア(独自算出の注目度): 31.379728211035314
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implicit neural representation (INR) models signals as continuous functions using neural networks, offering efficient and differentiable optimization for inverse problems across diverse disciplines. However, the representational capacity of INR defined by the range of functions the neural network can characterize, is inherently limited by the low-dimensional feature space in conventional multilayer perceptron (MLP) architectures. While widening the MLP can linearly increase feature space dimensionality, it also leads to a quadratic growth in computational and memory costs. To address this limitation, we propose the split-layer, a novel reformulation of MLP construction. The split-layer divides each layer into multiple parallel branches and integrates their outputs via Hadamard product, effectively constructing a high-degree polynomial space. This approach significantly enhances INR's representational capacity by expanding the feature space dimensionality without incurring prohibitive computational overhead. Extensive experiments demonstrate that the split-layer substantially improves INR performance, surpassing existing methods across multiple tasks, including 2D image fitting, 2D CT reconstruction, 3D shape representation, and 5D novel view synthesis.
- Abstract(参考訳): Inlicit Neural representation (INR) は、ニューラルネットワークを用いて信号を連続関数としてモデル化し、様々な分野にわたる逆問題に対する効率的で微分可能な最適化を提供する。
しかし、ニューラルネットワークが特徴付ける機能の範囲で定義されるINRの表現能力は、従来の多層パーセプトロン(MLP)アーキテクチャの低次元特徴空間によって本質的に制限されている。
MLPの拡大は特徴空間の次元を線形的に増加させるが、計算コストとメモリコストの2次的増加につながる。
この制限に対処するために, 分割層, MLP 構築の新たな再構成を提案する。
分割層は各層を複数の平行分岐に分割し、その出力をアダマール積を通じて積分し、高次多項式空間を効率的に構成する。
このアプローチは、不規則な計算オーバーヘッドを発生させることなく特徴空間の次元を拡張することにより、INRの表現能力を大幅に向上させる。
広汎な実験により, 分割層は2次元画像整合, 2次元CT再構成, 3次元形状表現, 5次元新規ビュー合成など, 既存の手法を超越してINR性能を著しく向上することが示された。
関連論文リスト
- F-INR: Functional Tensor Decomposition for Implicit Neural Representations [7.183424522250937]
Implicit Representation (INR) は、ニューラルネットワークを用いて離散信号を連続的に微分可能な関数に符号化する強力なツールとして登場した。
機能的分解によりINR学習を再構築し,高次元タスクを軽量な軸特化サブネットワークに分割するフレームワークF-INRを提案する。
論文 参考訳(メタデータ) (2025-03-27T13:51:31Z) - Optimizing 3D Geometry Reconstruction from Implicit Neural Representations [2.3940819037450987]
暗黙の神経表現は、3D幾何学を学ぶための強力なツールとして登場した。
本稿では,計算コストを削減し,細部を捉える新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-16T16:36:23Z) - SL$^{2}$A-INR: Single-Layer Learnable Activation for Implicit Neural Representation [10.079590259767306]
Inlicit Neural Representation (INR)は、ニューラルネットワークを利用して、座標入力を対応する属性に変換することで、視覚関連領域において大きな進歩をもたらした。
我々は,INRアーキテクチャに新しいアプローチを導入することで,これらの課題を緩和できることを示す。
具体的には,シングルレイヤの学習可能なアクティベーション関数と従来のReLUアクティベーションを用いた合成を組み合わせたハイブリッドネットワークSL$2$A-INRを提案する。
論文 参考訳(メタデータ) (2024-09-17T02:02:15Z) - Adaptive Multi-NeRF: Exploit Efficient Parallelism in Adaptive Multiple
Scale Neural Radiance Field Rendering [3.8200916793910973]
ニューラル・ラジアンス・フィールド(NeRF)の最近の進歩は、3次元シーンの出現を暗黙のニューラルネットワークとして表す重要な可能性を示している。
しかし、長いトレーニングとレンダリングのプロセスは、リアルタイムレンダリングアプリケーションにこの有望なテクニックを広く採用することを妨げる。
本稿では,大規模シーンのニューラルネットワークレンダリングプロセスの高速化を目的とした適応型マルチNeRF手法を提案する。
論文 参考訳(メタデータ) (2023-10-03T08:34:49Z) - Multi-Grid Tensorized Fourier Neural Operator for High-Resolution PDEs [93.82811501035569]
本稿では,メモリ要求を低減し,より一般化したデータ効率・並列化可能な演算子学習手法を提案する。
MG-TFNOは、実世界の実世界の現象の局所的構造と大域的構造を活用することで、大規模な分解能にスケールする。
乱流ナビエ・ストークス方程式において150倍以上の圧縮で誤差の半分以下を達成できる優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-29T20:18:52Z) - ResFields: Residual Neural Fields for Spatiotemporal Signals [61.44420761752655]
ResFieldsは、複雑な時間的信号を効果的に表現するために設計された新しいネットワークのクラスである。
本稿では,ResFieldの特性を包括的に解析し,トレーニング可能なパラメータの数を減らすための行列分解手法を提案する。
スパースRGBDカメラからダイナミックな3Dシーンをキャプチャする効果を示すことで,ResFieldsの実用性を実証する。
論文 参考訳(メタデータ) (2023-09-06T16:59:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。