論文の概要: Optimizing Rank for High-Fidelity Implicit Neural Representations
- arxiv url: http://arxiv.org/abs/2512.14366v1
- Date: Tue, 16 Dec 2025 12:52:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.717746
- Title: Optimizing Rank for High-Fidelity Implicit Neural Representations
- Title(参考訳): 高忠実度インプットニューラル表現におけるランクの最適化
- Authors: Julian McGinnis, Florian A. Hölzl, Suprosanna Shit, Florentin Bieder, Paul Friedrich, Mark Mühlau, Björn Menze, Daniel Rueckert, Benedikt Wiestler,
- Abstract要約: バニラ多層パーセプトロン(MLP)に基づくインプリシト表現(INR)は、高周波コンテンツを表現できないと広く信じられている。
本稿では,バニラ信号の低周波バイアスは,高頻度コンテンツを学習するための固有のアーキテクチャ的制約である,という概念に挑戦する。
- 参考スコア(独自算出の注目度): 18.87164151867775
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Implicit Neural Representations (INRs) based on vanilla Multi-Layer Perceptrons (MLPs) are widely believed to be incapable of representing high-frequency content. This has directed research efforts towards architectural interventions, such as coordinate embeddings or specialized activation functions, to represent high-frequency signals. In this paper, we challenge the notion that the low-frequency bias of vanilla MLPs is an intrinsic, architectural limitation to learn high-frequency content, but instead a symptom of stable rank degradation during training. We empirically demonstrate that regulating the network's rank during training substantially improves the fidelity of the learned signal, rendering even simple MLP architectures expressive. Extensive experiments show that using optimizers like Muon, with high-rank, near-orthogonal updates, consistently enhances INR architectures even beyond simple ReLU MLPs. These substantial improvements hold across a diverse range of domains, including natural and medical images, and novel view synthesis, with up to 9 dB PSNR improvements over the previous state-of-the-art. Our project page, which includes code and experimental results, is available at: (https://muon-inrs.github.io).
- Abstract(参考訳): バニラ多層パーセプトロン(MLP)に基づくインプシットニューラル表現(INR)は、高周波コンテンツを表現できないと広く信じられている。
これは、高周波数信号を表現するために、座標埋め込みや特殊アクティベーション関数などのアーキテクチャ介入の研究を指導している。
本稿では,バニラMLPの低周波バイアスは,高頻度コンテンツを学習するための内在的,建築的制約であり,代わりにトレーニング中に安定した階調劣化の症状である,という概念に挑戦する。
学習中のネットワークのランクの調整が学習信号の忠実度を大幅に向上し、単純なMLPアーキテクチャさえも表現可能であることを実証的に実証した。
大規模な実験では、Muonのようなオプティマイザを使用することで、高ランクでほぼ直交した更新によって、単純なReLU MLPを超えて、INRアーキテクチャが一貫して強化されていることが示されている。
これらの大幅な改善は、自然画像や医用画像、新しいビュー合成など、さまざまな領域にまたがって行われ、従来の最先端のPSNRよりも最大9dBのPSNRが向上している。
コードと実験結果を含む私たちのプロジェクトページは、以下の通りです。
関連論文リスト
- Moving Beyond Diffusion: Hierarchy-to-Hierarchy Autoregression for fMRI-to-Image Reconstruction [65.67001243986981]
我々は,スケールワイド自己回帰モデルに基づく粗大なfMRI画像再構成フレームワークであるMindHierを提案する。
MindHierは、拡散ベースのベースラインよりも優れたセマンティック忠実さ、4.67倍高速な推論、より決定論的結果を達成する。
論文 参考訳(メタデータ) (2025-10-25T15:40:07Z) - FADPNet: Frequency-Aware Dual-Path Network for Face Super-Resolution [70.61549422952193]
計算コストの制限による顔超解像(FSR)は未解決の問題である。
既存のアプローチでは、全ての顔のピクセルを等しく扱い、計算資源を最適以下に割り当てる。
本稿では、低周波成分と高周波成分に顔の特徴を分解する周波数対応デュアルパスネットワークであるFADPNetを提案する。
論文 参考訳(メタデータ) (2025-06-17T02:33:42Z) - STAF: Sinusoidal Trainable Activation Functions for Implicit Neural Representation [7.2888019138115245]
Inlicit Neural Representations (INR) は、連続的な信号をモデリングするための強力なフレームワークとして登場した。
ReLUベースのネットワークのスペクトルバイアスは、十分に確立された制限であり、ターゲット信号の微細な詳細を捕捉する能力を制限する。
Sinusoidal Trainable Function Activation (STAF)について紹介する。
STAFは本質的に周波数成分を変調し、自己適応型スペクトル学習を可能にする。
論文 参考訳(メタデータ) (2025-02-02T18:29:33Z) - SL$^{2}$A-INR: Single-Layer Learnable Activation for Implicit Neural Representation [10.079590259767306]
Inlicit Neural Representation (INR)は、ニューラルネットワークを利用して、座標入力を対応する属性に変換することで、視覚関連領域において大きな進歩をもたらした。
我々は,INRアーキテクチャに新しいアプローチを導入することで,これらの課題を緩和できることを示す。
具体的には,シングルレイヤの学習可能なアクティベーション関数と従来のReLUアクティベーションを用いた合成を組み合わせたハイブリッドネットワークSL$2$A-INRを提案する。
論文 参考訳(メタデータ) (2024-09-17T02:02:15Z) - Coordinate-Aware Modulation for Neural Fields [11.844561374381575]
本稿では,ニューラルネットワークにおける合成とグリッド表現の両面を利用した新しい手法を提案する。
格子表現から抽出したスケールとシフト特徴を用いてパラメータを変調するニューラルコーディネート・アウェア・変調(CAM)を提案する。
論文 参考訳(メタデータ) (2023-11-25T10:42:51Z) - FAMLP: A Frequency-Aware MLP-Like Architecture For Domain Generalization [73.41395947275473]
本稿では、変換周波数領域において、ドメイン固有の特徴をフィルタリングする新しい周波数認識アーキテクチャを提案する。
3つのベンチマークの実験では、最先端の手法をそれぞれ3%、4%、9%のマージンで上回った。
論文 参考訳(メタデータ) (2022-03-24T07:26:29Z) - Uncovering the Over-smoothing Challenge in Image Super-Resolution: Entropy-based Quantification and Contrastive Optimization [67.99082021804145]
我々はDetail Enhanced Contrastive Loss (DECLoss)と呼ばれるCOO問題に対する明確な解決策を提案する。
DECLossはコントラスト学習のクラスタリング特性を利用して、潜在的な高分解能分布の分散を直接的に低減する。
我々は複数の超高解像度ベンチマーク上でDECLosを評価し,PSNR指向モデルの知覚品質を向上させることを実証した。
論文 参考訳(メタデータ) (2022-01-04T08:30:09Z) - Functional Regularization for Reinforcement Learning via Learned Fourier
Features [98.90474131452588]
本稿では、入力を学習されたフーリエベースに埋め込むことにより、深層強化学習のための簡単なアーキテクチャを提案する。
その結果、状態ベースと画像ベースの両方のRLのサンプル効率が向上することがわかった。
論文 参考訳(メタデータ) (2021-12-06T18:59:52Z) - Over-and-Under Complete Convolutional RNN for MRI Reconstruction [57.95363471940937]
MR画像再構成のための最近のディープラーニングに基づく手法は、通常、汎用的なオートエンコーダアーキテクチャを利用する。
OUCR(Over-and-Under Complete Convolu?tional Recurrent Neural Network)を提案する。
提案手法は, トレーニング可能なパラメータの少ない圧縮されたセンシングと, 一般的なディープラーニングに基づく手法に対して, 大幅な改善を実現する。
論文 参考訳(メタデータ) (2021-06-16T15:56:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。