論文の概要: Dynamical Implicit Neural Representations
- arxiv url: http://arxiv.org/abs/2511.21787v1
- Date: Wed, 26 Nov 2025 14:37:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.23756
- Title: Dynamical Implicit Neural Representations
- Title(参考訳): 動的帰納的ニューラル表現
- Authors: Yesom Park, Kelvin Kan, Thomas Flynn, Yi Huang, Shinjae Yoo, Stanley Osher, Xihaier Luo,
- Abstract要約: Implicit Neural Representation (INR)は、複雑な視覚的および幾何学的信号をモデリングするための強力な連続的なフレームワークを提供する。
本稿では,機能進化を連続時間動的システムとして扱う新しいINRモデリングフレームワークであるDynamical Implicit Neural Representations (DINR)を紹介する。
従来の静的INRよりも, 安定収束性, 信号忠実度, より高次一般化を実現していることを示す。
- 参考スコア(独自算出の注目度): 19.459107190388508
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Implicit Neural Representations (INRs) provide a powerful continuous framework for modeling complex visual and geometric signals, but spectral bias remains a fundamental challenge, limiting their ability to capture high-frequency details. Orthogonal to existing remedy strategies, we introduce Dynamical Implicit Neural Representations (DINR), a new INR modeling framework that treats feature evolution as a continuous-time dynamical system rather than a discrete stack of layers. This dynamical formulation mitigates spectral bias by enabling richer, more adaptive frequency representations through continuous feature evolution. Theoretical analysis based on Rademacher complexity and the Neural Tangent Kernel demonstrates that DINR enhances expressivity and improves training dynamics. Moreover, regularizing the complexity of the underlying dynamics provides a principled way to balance expressivity and generalization. Extensive experiments on image representation, field reconstruction, and data compression confirm that DINR delivers more stable convergence, higher signal fidelity, and stronger generalization than conventional static INRs.
- Abstract(参考訳): Inlicit Neural Representations (INR)は複雑な視覚的および幾何学的信号をモデル化するための強力な連続的なフレームワークを提供するが、スペクトルバイアスは依然として基本的な課題であり、高周波の詳細を捉える能力を制限する。
新しいINRモデリングフレームワークであるDynamical Implicit Neural Representations(DINR)を導入し、レイヤーの離散スタックではなく、機能進化を連続的な動的システムとして扱う。
この動的定式化は、連続的な特徴進化を通じてよりリッチで適応的な周波数表現を可能にすることで、スペクトルバイアスを緩和する。
Rademacherの複雑性とNeural Tangent Kernelに基づく理論的解析は、DINRが表現性を高め、トレーニングダイナミクスを改善することを示した。
さらに、基礎となる力学の複雑さを正則化することは、表現性と一般化のバランスをとるための原則化された方法を与える。
画像表現、フィールド再構成、データ圧縮に関する大規模な実験により、DINRは従来の静的INRよりも安定な収束、信号の忠実度、より強い一般化をもたらすことが確認された。
関連論文リスト
- K-Syn: K-space Data Synthesis in Ultra Low-data Regimes [0.7817545394809559]
このレターは周波数領域の機能レベルのモデリングに焦点をあて、超低データ状態であっても安定でリッチな生成を可能にする。
我々は、時間枠にまたがるk空間データを複数の融合戦略と統合し、生成軌道を操り、さらに最適化する。
実験により, 提案手法は低データレシエーションにおいて強い生成能力を有することが示された。
論文 参考訳(メタデータ) (2025-09-04T12:25:05Z) - Compressive Imaging Reconstruction via Tensor Decomposed Multi-Resolution Grid Encoding [50.54887630778593]
圧縮画像再構成(CI)は, 圧縮された低次元画像から高次元画像を復元することを目的としている。
既存の教師なし表現は、表現能力と効率の間の望ましいバランスを達成するのに苦労する。
本稿では,CI再構成のための非教師なし連続表現フレームワークである分割多重解像度グリッド符号化(GridTD)を提案する。
論文 参考訳(メタデータ) (2025-07-10T12:36:20Z) - Low-Rank Tensor Recovery via Variational Schatten-p Quasi-Norm and Jacobian Regularization [49.85875869048434]
暗黙的神経表現のためのニューラルネットワークによりパラメータ化されたCPベースの低ランクテンソル関数を提案する。
本研究では、スペーサーCP分解を実現するために、冗長なランク1成分に変分Schatten-p quasi-normを導入する。
滑らか性のために、ヤコビアンとハッチンソンのトレース推定器のスペクトルノルムに基づく正規化項を提案する。
論文 参考訳(メタデータ) (2025-06-27T11:23:10Z) - Structured Kolmogorov-Arnold Neural ODEs for Interpretable Learning and Symbolic Discovery of Nonlinear Dynamics [3.507097894538744]
構造化状態空間モデリングをKAN(Kolmogorov-Arnold Networks)と統合するフレームワークを提案する。
SKANODEは、全トレーニング可能なkanをユニバーサル関数近似器として使用し、仮想センシングを行い、変位や速度などの解釈可能な物理量に対応する潜在状態を回復する。
シミュレーションおよび実世界のシステムに関する実験は、SKANODEが優れた予測精度を達成し、物理に一貫性のある力学を発見し、複雑な非線形挙動を明らかにすることを示した。
論文 参考訳(メタデータ) (2025-06-23T06:42:43Z) - High-Fidelity Scientific Simulation Surrogates via Adaptive Implicit Neural Representations [51.90920900332569]
入射神経表現(INR)は空間的に構造化されたデータをモデリングするためのコンパクトで連続的なフレームワークを提供する。
近年のアプローチでは、剛性幾何学的構造に沿った付加的な特徴を導入することでこの問題に対処している。
機能適応型INR(FA-INR)を提案する。
論文 参考訳(メタデータ) (2025-06-07T16:45:17Z) - Weight-Space Linear Recurrent Neural Networks [2.77067514910801]
WARP (Weight-space Adaptive Recurrent Prediction) は、重み空間学習を線形反復で統一する強力なモデルである。
WARPは、様々な分類タスクにおいて最先端のベースラインと一致しているか、あるいは超越しているかを示す。
注目すべきは、我々のモデルの物理インフォームド変種は、次の最良のモデルよりも10倍以上優れています。
論文 参考訳(メタデータ) (2025-06-01T20:13:28Z) - Implicit Diffusion Models for Continuous Super-Resolution [65.45848137914592]
本稿では,高忠実度連続画像超解像のためのインプリシティ拡散モデル(IDM)を提案する。
IDMは暗黙のニューラル表現とデノナイジング拡散モデルを統合されたエンドツーエンドフレームワークに統合する。
スケーリング係数は分解能を調節し、最終出力におけるLR情報と生成された特徴の比率を変調する。
論文 参考訳(メタデータ) (2023-03-29T07:02:20Z) - Modality-Agnostic Variational Compression of Implicit Neural
Representations [96.35492043867104]
Inlicit Neural Representation (INR) としてパラメータ化されたデータの関数的ビューに基づくモーダリティ非依存型ニューラル圧縮アルゴリズムを提案する。
潜時符号化と疎性の間のギャップを埋めて、ソフトゲーティング機構に非直線的にマッピングされたコンパクト潜時表現を得る。
このような潜在表現のデータセットを得た後、ニューラル圧縮を用いてモーダリティ非依存空間におけるレート/歪みトレードオフを直接最適化する。
論文 参考訳(メタデータ) (2023-01-23T15:22:42Z) - Spatiotemporal implicit neural representation for unsupervised dynamic
MRI reconstruction [11.661657147506519]
Inlicit Neuraltruth (INR) は逆問題を解決するための強力なDLベースのツールとして登場した。
本研究では,高度にアンサンプされたk空間データから動的MRI再構成を改善するためのINRに基づく手法を提案する。
提案したINRは、ダイナミックMRI画像を暗黙の関数として表現し、それらをニューラルネットワークにエンコードする。
論文 参考訳(メタデータ) (2022-12-31T05:43:21Z) - Tractable Dendritic RNNs for Reconstructing Nonlinear Dynamical Systems [7.045072177165241]
線形スプラインベース展開により、片方向線形リカレントニューラルネットワーク(RNN)を増強する。
このアプローチは単純な PLRNN の理論的に魅力的な性質を全て保持するが、相対的に低次元の任意の非線形力学系を近似する能力は向上する。
論文 参考訳(メタデータ) (2022-07-06T09:43:03Z) - Limited-angle tomographic reconstruction of dense layered objects by
dynamical machine learning [68.9515120904028]
強い散乱準透明物体の有限角トモグラフィーは困難で、非常に不適切な問題である。
このような問題の状況を改善することにより、アーティファクトの削減には、事前の定期化が必要である。
我々は,新しい分割畳み込みゲート再帰ユニット(SC-GRU)をビルディングブロックとして,リカレントニューラルネットワーク(RNN)アーキテクチャを考案した。
論文 参考訳(メタデータ) (2020-07-21T11:48:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。