論文の概要: Split-Layer: Enhancing Implicit Neural Representation by Maximizing the Dimensionality of Feature Space
- arxiv url: http://arxiv.org/abs/2511.10142v1
- Date: Fri, 14 Nov 2025 01:35:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.714595
- Title: Split-Layer: Enhancing Implicit Neural Representation by Maximizing the Dimensionality of Feature Space
- Title(参考訳): Split-Layer: 特徴空間の次元の最大化によるインプシットニューラル表現の強化
- Authors: Zhicheng Cai, Hao Zhu, Linsen Chen, Qiu Shen, Xun Cao,
- Abstract要約: Inlicit Neural representation (INR) は、ニューラルネットワークを用いて信号を連続関数としてモデル化する。
ニューラルネットワークが特徴付ける機能の範囲によって定義されるINRの表現能力は、本質的に低次元の特徴空間によって制限される。
本稿では,多層パーセプトロンの新規な再構成であるスプリット層を提案する。
- 参考スコア(独自算出の注目度): 31.379728211035314
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implicit neural representation (INR) models signals as continuous functions using neural networks, offering efficient and differentiable optimization for inverse problems across diverse disciplines. However, the representational capacity of INR defined by the range of functions the neural network can characterize, is inherently limited by the low-dimensional feature space in conventional multilayer perceptron (MLP) architectures. While widening the MLP can linearly increase feature space dimensionality, it also leads to a quadratic growth in computational and memory costs. To address this limitation, we propose the split-layer, a novel reformulation of MLP construction. The split-layer divides each layer into multiple parallel branches and integrates their outputs via Hadamard product, effectively constructing a high-degree polynomial space. This approach significantly enhances INR's representational capacity by expanding the feature space dimensionality without incurring prohibitive computational overhead. Extensive experiments demonstrate that the split-layer substantially improves INR performance, surpassing existing methods across multiple tasks, including 2D image fitting, 2D CT reconstruction, 3D shape representation, and 5D novel view synthesis.
- Abstract(参考訳): Inlicit Neural representation (INR) は、ニューラルネットワークを用いて信号を連続関数としてモデル化し、様々な分野にわたる逆問題に対する効率的で微分可能な最適化を提供する。
しかし、ニューラルネットワークが特徴付ける機能の範囲で定義されるINRの表現能力は、従来の多層パーセプトロン(MLP)アーキテクチャの低次元特徴空間によって本質的に制限されている。
MLPの拡大は特徴空間の次元を線形的に増加させるが、計算コストとメモリコストの2次的増加につながる。
この制限に対処するために, 分割層, MLP 構築の新たな再構成を提案する。
分割層は各層を複数の平行分岐に分割し、その出力をアダマール積を通じて積分し、高次多項式空間を効率的に構成する。
このアプローチは、不規則な計算オーバーヘッドを発生させることなく特徴空間の次元を拡張することにより、INRの表現能力を大幅に向上させる。
広汎な実験により, 分割層は2次元画像整合, 2次元CT再構成, 3次元形状表現, 5次元新規ビュー合成など, 既存の手法を超越してINR性能を著しく向上することが示された。
関連論文リスト
- Scaling Implicit Fields via Hypernetwork-Driven Multiscale Coordinate Transformations [0.0]
Inlicit Neural Representations (INR)は、画像、3次元形状、符号付き距離場、放射場などの信号を表現するための強力なパラダイムとして登場した。
この研究は、ハイパーネットワークを用いて信号適応座標変換を学習することにより、表現ボトルネックを破る新しいINRのクラスであるHyper-Coordinate Implicit Neural Representations (HC-INR)を導入している。
論文 参考訳(メタデータ) (2025-11-23T10:27:04Z) - F-INR: Functional Tensor Decomposition for Implicit Neural Representations [7.183424522250937]
Implicit Representation (INR) は、ニューラルネットワークを用いて離散信号を連続的に微分可能な関数に符号化する強力なツールとして登場した。
機能的分解によりINR学習を再構築し,高次元タスクを軽量な軸特化サブネットワークに分割するフレームワークF-INRを提案する。
論文 参考訳(メタデータ) (2025-03-27T13:51:31Z) - Geometric Algebra Planes: Convex Implicit Neural Volumes [70.12234371845445]
GA-Planes はスパース低ランク係数と低分解能行列と等価であることを示す。
また,GA-Planeは既存の表現にも適用可能であることを示す。
論文 参考訳(メタデータ) (2024-11-20T18:21:58Z) - Optimizing 3D Geometry Reconstruction from Implicit Neural Representations [2.3940819037450987]
暗黙の神経表現は、3D幾何学を学ぶための強力なツールとして登場した。
本稿では,計算コストを削減し,細部を捉える新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-16T16:36:23Z) - SL$^{2}$A-INR: Single-Layer Learnable Activation for Implicit Neural Representation [10.079590259767306]
Inlicit Neural Representation (INR)は、ニューラルネットワークを利用して、座標入力を対応する属性に変換することで、視覚関連領域において大きな進歩をもたらした。
我々は,INRアーキテクチャに新しいアプローチを導入することで,これらの課題を緩和できることを示す。
具体的には,シングルレイヤの学習可能なアクティベーション関数と従来のReLUアクティベーションを用いた合成を組み合わせたハイブリッドネットワークSL$2$A-INRを提案する。
論文 参考訳(メタデータ) (2024-09-17T02:02:15Z) - Implicit Gaussian Splatting with Efficient Multi-Level Tri-Plane Representation [45.582869951581785]
Implicit Gaussian Splatting (IGS)は、明示的なポイントクラウドと暗黙的な機能埋め込みを統合する革新的なハイブリッドモデルである。
本稿では,空間正規化を具体化したレベルベースプログレッシブトレーニング手法を提案する。
我々のアルゴリズムは、数MBしか使用せず、ストレージ効率とレンダリング忠実さを効果的にバランスして、高品質なレンダリングを実現することができる。
論文 参考訳(メタデータ) (2024-08-19T14:34:17Z) - Adaptive Multi-NeRF: Exploit Efficient Parallelism in Adaptive Multiple
Scale Neural Radiance Field Rendering [3.8200916793910973]
ニューラル・ラジアンス・フィールド(NeRF)の最近の進歩は、3次元シーンの出現を暗黙のニューラルネットワークとして表す重要な可能性を示している。
しかし、長いトレーニングとレンダリングのプロセスは、リアルタイムレンダリングアプリケーションにこの有望なテクニックを広く採用することを妨げる。
本稿では,大規模シーンのニューラルネットワークレンダリングプロセスの高速化を目的とした適応型マルチNeRF手法を提案する。
論文 参考訳(メタデータ) (2023-10-03T08:34:49Z) - Multi-Grid Tensorized Fourier Neural Operator for High-Resolution PDEs [93.82811501035569]
本稿では,メモリ要求を低減し,より一般化したデータ効率・並列化可能な演算子学習手法を提案する。
MG-TFNOは、実世界の実世界の現象の局所的構造と大域的構造を活用することで、大規模な分解能にスケールする。
乱流ナビエ・ストークス方程式において150倍以上の圧縮で誤差の半分以下を達成できる優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-29T20:18:52Z) - Anti-Aliased Neural Implicit Surfaces with Encoding Level of Detail [54.03399077258403]
本稿では,高頻度幾何細部リカバリとアンチエイリアス化された新しいビューレンダリングのための効率的なニューラル表現であるLoD-NeuSを提案する。
我々の表現は、光線に沿った円錐状のフラストラム内の多面体化から空間特徴を集約する。
論文 参考訳(メタデータ) (2023-09-19T05:44:00Z) - ResFields: Residual Neural Fields for Spatiotemporal Signals [61.44420761752655]
ResFieldsは、複雑な時間的信号を効果的に表現するために設計された新しいネットワークのクラスである。
本稿では,ResFieldの特性を包括的に解析し,トレーニング可能なパラメータの数を減らすための行列分解手法を提案する。
スパースRGBDカメラからダイナミックな3Dシーンをキャプチャする効果を示すことで,ResFieldsの実用性を実証する。
論文 参考訳(メタデータ) (2023-09-06T16:59:36Z) - Versatile Neural Processes for Learning Implicit Neural Representations [57.090658265140384]
本稿では,近似関数の能力を大幅に向上させるVersatile Neural Processs (VNP)を提案する。
具体的には、より少ない情報的コンテキストトークンを生成するボトルネックエンコーダを導入し、高い計算コストを軽減した。
提案したVNPが1D, 2D, 3D信号を含む様々なタスクに対して有効であることを示す。
論文 参考訳(メタデータ) (2023-01-21T04:08:46Z) - Spatial-Spectral Residual Network for Hyperspectral Image
Super-Resolution [82.1739023587565]
ハイパースペクトル画像超解像のための新しいスペクトル空間残差ネットワーク(SSRNet)を提案する。
提案手法は,2次元畳み込みではなく3次元畳み込みを用いて空間スペクトル情報の探索を効果的に行うことができる。
各ユニットでは空間的・時間的分離可能な3次元畳み込みを用いて空間的・スペクトル的な情報を抽出する。
論文 参考訳(メタデータ) (2020-01-14T03:34:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。