論文の概要: Detail Across Scales: Multi-Scale Enhancement for Full Spectrum Neural Representations
- arxiv url: http://arxiv.org/abs/2509.15494v1
- Date: Fri, 19 Sep 2025 00:15:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:10.942945
- Title: Detail Across Scales: Multi-Scale Enhancement for Full Spectrum Neural Representations
- Title(参考訳): Detail Across Scales:完全スペクトルニューラル表現のためのマルチスケールエンハンスメント
- Authors: Yuan Ni, Zhantao Chen, Cheng Peng, Rajan Plumley, Chun Hong Yoon, Jana B. Thayer, Joshua J. Turner,
- Abstract要約: Inlicit Neural representations (INR) は、離散配列ベースのデータ表現に代わるコンパクトでパラメトリックな代替品として登場した。
本稿では,ウェーブレットをインフォームした暗黙的ニューラル表現であるWIEN-INRを提案する。
WIEN-INRは,コンパクトなモデルサイズを維持しながら,より優れた再現性を実現する。
- 参考スコア(独自算出の注目度): 4.899720537787801
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implicit neural representations (INRs) have emerged as a compact and parametric alternative to discrete array-based data representations, encoding information directly in neural network weights to enable resolution-independent representation and memory efficiency. However, existing INR approaches, when constrained to compact network sizes, struggle to faithfully represent the multi-scale structures, high-frequency information, and fine textures that characterize the majority of scientific datasets. To address this limitation, we propose WIEN-INR, a wavelet-informed implicit neural representation that distributes modeling across different resolution scales and employs a specialized kernel network at the finest scale to recover subtle details. This multi-scale architecture allows for the use of smaller networks to retain the full spectrum of information while preserving the training efficiency and reducing storage cost. Through extensive experiments on diverse scientific datasets spanning different scales and structural complexities, WIEN-INR achieves superior reconstruction fidelity while maintaining a compact model size. These results demonstrate WIEN-INR as a practical neural representation framework for high-fidelity scientific data encoding, extending the applicability of INRs to domains where efficient preservation of fine detail is essential.
- Abstract(参考訳): Inlicit Neural representations (INR) は、離散配列ベースのデータ表現のコンパクトでパラメトリックな代替品として登場し、分解能に依存しない表現とメモリ効率を実現するために、ニューラルネットワークの重みに情報を直接エンコードしている。
しかし、既存のINRアプローチは、コンパクトなネットワークサイズに制約される場合、多スケール構造、高周波情報、そして科学データセットの大部分を特徴付ける微妙なテクスチャを忠実に表現するのに苦労する。
この制限に対処するために、ウェーブレットにインフォームドされた暗黙のニューラル表現であるWIEN-INRを提案する。
このマルチスケールアーキテクチャにより、トレーニング効率を保ち、ストレージコストを削減しながら、より小さなネットワークを使用して情報の完全なスペクトルを維持することができる。
様々なスケールと構造的複雑さにまたがる多様な科学的データセットに関する広範な実験を通じて、WIEN-INRは、コンパクトなモデルサイズを維持しながら、より優れた再構成忠実性を達成する。
これらの結果から、WIEN-INRは、高忠実度科学データ符号化のための実用的な神経表現フレームワークであり、細部を効率的に保存することが不可欠である領域にINRの適用性を広げることを示した。
関連論文リスト
- High-Fidelity Scientific Simulation Surrogates via Adaptive Implicit Neural Representations [51.90920900332569]
入射神経表現(INR)は空間的に構造化されたデータをモデリングするためのコンパクトで連続的なフレームワークを提供する。
近年のアプローチでは、剛性幾何学的構造に沿った付加的な特徴を導入することでこの問題に対処している。
機能適応型INR(FA-INR)を提案する。
論文 参考訳(メタデータ) (2025-06-07T16:45:17Z) - Residual Feature-Reutilization Inception Network for Image Classification [1.7200496706831436]
特徴情報の効果的取得はコンピュータビジョンの分野において非常に重要である。
本稿では,ResFRI(ResFRI)やSplit-ResFRI(Split-ResFRI)からなる新しいCNNアーキテクチャを提案する。
我々は, モデルサイズが近似的であり, 追加データを使用しないという前提の下で, 他の近代モデルと比較して, 最先端の結果を得る。
論文 参考訳(メタデータ) (2024-12-27T03:55:25Z) - FFEINR: Flow Feature-Enhanced Implicit Neural Representation for
Spatio-temporal Super-Resolution [4.577685231084759]
本稿では,フローフィールドデータの超高分解能化のための特徴強調型ニューラルインシシット表現(FFEINR)を提案する。
モデル構造とサンプリング分解能の観点から、暗黙のニューラル表現を最大限に活用することができる。
FFEINRのトレーニングプロセスは、入力層に機能拡張を導入することで容易になる。
論文 参考訳(メタデータ) (2023-08-24T02:28:18Z) - HyperINR: A Fast and Predictive Hypernetwork for Implicit Neural
Representations via Knowledge Distillation [31.44962361819199]
Inlicit Neural Representations (INRs)は近年、科学的可視化の分野で大きな可能性を秘めている。
本稿では,コンパクトINRの重みを直接予測できる新しいハイパーネットワークアーキテクチャであるHyperINRを紹介する。
多分解能ハッシュ符号化ユニットのアンサンブルを一斉に利用することにより、INRは最先端の推論性能を得る。
論文 参考訳(メタデータ) (2023-04-09T08:10:10Z) - NAR-Former: Neural Architecture Representation Learning towards Holistic
Attributes Prediction [37.357949900603295]
本稿では,属性の全体的推定に使用できるニューラルネットワーク表現モデルを提案する。
実験の結果,提案するフレームワークは,セルアーキテクチャとディープニューラルネットワーク全体の遅延特性と精度特性を予測できることがわかった。
論文 参考訳(メタデータ) (2022-11-15T10:15:21Z) - Over-and-Under Complete Convolutional RNN for MRI Reconstruction [57.95363471940937]
MR画像再構成のための最近のディープラーニングに基づく手法は、通常、汎用的なオートエンコーダアーキテクチャを利用する。
OUCR(Over-and-Under Complete Convolu?tional Recurrent Neural Network)を提案する。
提案手法は, トレーニング可能なパラメータの少ない圧縮されたセンシングと, 一般的なディープラーニングに基づく手法に対して, 大幅な改善を実現する。
論文 参考訳(メタデータ) (2021-06-16T15:56:34Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Learning Frequency-aware Dynamic Network for Efficient Super-Resolution [56.98668484450857]
本稿では、離散コサイン変換(dct)領域の係数に応じて入力を複数の部分に分割する新しい周波数認識動的ネットワークについて検討する。
実際、高周波部は高価な操作で処理され、低周波部は計算負荷を軽減するために安価な操作が割り当てられる。
ベンチマークSISRモデルおよびデータセット上での実験は、周波数認識動的ネットワークが様々なSISRニューラルネットワークに使用できることを示している。
論文 参考訳(メタデータ) (2021-03-15T12:54:26Z) - Sequential Hierarchical Learning with Distribution Transformation for
Image Super-Resolution [83.70890515772456]
画像SRのための逐次階層学習型超解像ネットワーク(SHSR)を構築した。
特徴のスケール間相関を考察し、階層的情報を段階的に探索するシーケンシャルなマルチスケールブロック(SMB)を考案する。
実験結果から,SHSRは最先端手法に優れた定量的性能と視覚的品質が得られることが示された。
論文 参考訳(メタデータ) (2020-07-19T01:35:53Z) - When Residual Learning Meets Dense Aggregation: Rethinking the
Aggregation of Deep Neural Networks [57.0502745301132]
我々は,グローバルな残差学習と局所的なマイクロセンスアグリゲーションを備えた新しいアーキテクチャであるMicro-Dense Netsを提案する。
我々のマイクロセンスブロックはニューラルアーキテクチャ検索に基づくモデルと統合して性能を向上させることができる。
論文 参考訳(メタデータ) (2020-04-19T08:34:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。