論文の概要: Optimizing Rank for High-Fidelity Implicit Neural Representations
- arxiv url: http://arxiv.org/abs/2512.14366v1
- Date: Tue, 16 Dec 2025 12:52:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.717746
- Title: Optimizing Rank for High-Fidelity Implicit Neural Representations
- Title(参考訳): 高忠実度インプットニューラル表現におけるランクの最適化
- Authors: Julian McGinnis, Florian A. Hölzl, Suprosanna Shit, Florentin Bieder, Paul Friedrich, Mark Mühlau, Björn Menze, Daniel Rueckert, Benedikt Wiestler,
- Abstract要約: バニラ多層パーセプトロン(MLP)に基づくインプリシト表現(INR)は、高周波コンテンツを表現できないと広く信じられている。
本稿では,バニラ信号の低周波バイアスは,高頻度コンテンツを学習するための固有のアーキテクチャ的制約である,という概念に挑戦する。
- 参考スコア(独自算出の注目度): 18.87164151867775
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Implicit Neural Representations (INRs) based on vanilla Multi-Layer Perceptrons (MLPs) are widely believed to be incapable of representing high-frequency content. This has directed research efforts towards architectural interventions, such as coordinate embeddings or specialized activation functions, to represent high-frequency signals. In this paper, we challenge the notion that the low-frequency bias of vanilla MLPs is an intrinsic, architectural limitation to learn high-frequency content, but instead a symptom of stable rank degradation during training. We empirically demonstrate that regulating the network's rank during training substantially improves the fidelity of the learned signal, rendering even simple MLP architectures expressive. Extensive experiments show that using optimizers like Muon, with high-rank, near-orthogonal updates, consistently enhances INR architectures even beyond simple ReLU MLPs. These substantial improvements hold across a diverse range of domains, including natural and medical images, and novel view synthesis, with up to 9 dB PSNR improvements over the previous state-of-the-art. Our project page, which includes code and experimental results, is available at: (https://muon-inrs.github.io).
- Abstract(参考訳): バニラ多層パーセプトロン(MLP)に基づくインプシットニューラル表現(INR)は、高周波コンテンツを表現できないと広く信じられている。
これは、高周波数信号を表現するために、座標埋め込みや特殊アクティベーション関数などのアーキテクチャ介入の研究を指導している。
本稿では,バニラMLPの低周波バイアスは,高頻度コンテンツを学習するための内在的,建築的制約であり,代わりにトレーニング中に安定した階調劣化の症状である,という概念に挑戦する。
学習中のネットワークのランクの調整が学習信号の忠実度を大幅に向上し、単純なMLPアーキテクチャさえも表現可能であることを実証的に実証した。
大規模な実験では、Muonのようなオプティマイザを使用することで、高ランクでほぼ直交した更新によって、単純なReLU MLPを超えて、INRアーキテクチャが一貫して強化されていることが示されている。
これらの大幅な改善は、自然画像や医用画像、新しいビュー合成など、さまざまな領域にまたがって行われ、従来の最先端のPSNRよりも最大9dBのPSNRが向上している。
コードと実験結果を含む私たちのプロジェクトページは、以下の通りです。
関連論文リスト
- FUTON: Fourier Tensor Network for Implicit Neural Representations [56.48739018255443]
入射神経表現(INR)はシグナルを符号化する強力なツールとして現れてきたが、支配的な設計はしばしば収束が遅く、ノイズに過度に適応し、外挿が不十分である。
低ランクテンソル分解により係数がパラメータ化される一般化フーリエ級数として信号をモデル化するFUTONを導入する。
論文 参考訳(メタデータ) (2026-02-13T19:31:44Z) - Adaptive Training of INRs via Pruning and Densification [6.759337697337581]
本稿では、最適化の過程で暗黙的な神経表現を洗練させる適応的なトレーニングスキームであるAIReを紹介する。
提案手法では,表現能力を向上させるために,ニューロンプルーニング機構を用いて冗長性と入力周波数密度化を回避する。
コードと事前訓練されたモデルは、パブリック使用のためにリリースされる。
論文 参考訳(メタデータ) (2025-10-27T23:52:46Z) - Moving Beyond Diffusion: Hierarchy-to-Hierarchy Autoregression for fMRI-to-Image Reconstruction [65.67001243986981]
我々は,スケールワイド自己回帰モデルに基づく粗大なfMRI画像再構成フレームワークであるMindHierを提案する。
MindHierは、拡散ベースのベースラインよりも優れたセマンティック忠実さ、4.67倍高速な推論、より決定論的結果を達成する。
論文 参考訳(メタデータ) (2025-10-25T15:40:07Z) - High-Frequency First: A Two-Stage Approach for Improving Image INR [13.070432644808806]
Implicit Neural Representations (INR) は、従来のピクセルベースのフォーマットに代わる強力な代替手段として登場した。
重要な課題は、ニューラルネットワークのスペクトルバイアスであり、高周波の詳細を捉えるのに苦労しながら、低周波成分を好む傾向がある。
隣接するソフトマスクは,局所的な変化が強い画素に対して,高い重みを適応的に割り当てる2段階のトレーニング戦略を導入する。
論文 参考訳(メタデータ) (2025-08-21T13:56:36Z) - FADPNet: Frequency-Aware Dual-Path Network for Face Super-Resolution [70.61549422952193]
計算コストの制限による顔超解像(FSR)は未解決の問題である。
既存のアプローチでは、全ての顔のピクセルを等しく扱い、計算資源を最適以下に割り当てる。
本稿では、低周波成分と高周波成分に顔の特徴を分解する周波数対応デュアルパスネットワークであるFADPNetを提案する。
論文 参考訳(メタデータ) (2025-06-17T02:33:42Z) - STAF: Sinusoidal Trainable Activation Functions for Implicit Neural Representation [7.2888019138115245]
Inlicit Neural Representations (INR) は、連続的な信号をモデリングするための強力なフレームワークとして登場した。
ReLUベースのネットワークのスペクトルバイアスは、十分に確立された制限であり、ターゲット信号の微細な詳細を捕捉する能力を制限する。
Sinusoidal Trainable Function Activation (STAF)について紹介する。
STAFは本質的に周波数成分を変調し、自己適応型スペクトル学習を可能にする。
論文 参考訳(メタデータ) (2025-02-02T18:29:33Z) - SL$^{2}$A-INR: Single-Layer Learnable Activation for Implicit Neural Representation [10.079590259767306]
Inlicit Neural Representation (INR)は、ニューラルネットワークを利用して、座標入力を対応する属性に変換することで、視覚関連領域において大きな進歩をもたらした。
我々は,INRアーキテクチャに新しいアプローチを導入することで,これらの課題を緩和できることを示す。
具体的には,シングルレイヤの学習可能なアクティベーション関数と従来のReLUアクティベーションを用いた合成を組み合わせたハイブリッドネットワークSL$2$A-INRを提案する。
論文 参考訳(メタデータ) (2024-09-17T02:02:15Z) - Conv-INR: Convolutional Implicit Neural Representation for Multimodal Visual Signals [2.7195102129095003]
Inlicit Neural representation (INR) は近年,信号表現の有望なパラダイムとして浮上している。
本稿では,畳み込みに基づく最初のINRモデルであるConv-INRを提案する。
論文 参考訳(メタデータ) (2024-06-06T16:52:42Z) - Coordinate-Aware Modulation for Neural Fields [11.844561374381575]
本稿では,ニューラルネットワークにおける合成とグリッド表現の両面を利用した新しい手法を提案する。
格子表現から抽出したスケールとシフト特徴を用いてパラメータを変調するニューラルコーディネート・アウェア・変調(CAM)を提案する。
論文 参考訳(メタデータ) (2023-11-25T10:42:51Z) - FAMLP: A Frequency-Aware MLP-Like Architecture For Domain Generalization [73.41395947275473]
本稿では、変換周波数領域において、ドメイン固有の特徴をフィルタリングする新しい周波数認識アーキテクチャを提案する。
3つのベンチマークの実験では、最先端の手法をそれぞれ3%、4%、9%のマージンで上回った。
論文 参考訳(メタデータ) (2022-03-24T07:26:29Z) - Uncovering the Over-smoothing Challenge in Image Super-Resolution: Entropy-based Quantification and Contrastive Optimization [67.99082021804145]
我々はDetail Enhanced Contrastive Loss (DECLoss)と呼ばれるCOO問題に対する明確な解決策を提案する。
DECLossはコントラスト学習のクラスタリング特性を利用して、潜在的な高分解能分布の分散を直接的に低減する。
我々は複数の超高解像度ベンチマーク上でDECLosを評価し,PSNR指向モデルの知覚品質を向上させることを実証した。
論文 参考訳(メタデータ) (2022-01-04T08:30:09Z) - Functional Regularization for Reinforcement Learning via Learned Fourier
Features [98.90474131452588]
本稿では、入力を学習されたフーリエベースに埋め込むことにより、深層強化学習のための簡単なアーキテクチャを提案する。
その結果、状態ベースと画像ベースの両方のRLのサンプル効率が向上することがわかった。
論文 参考訳(メタデータ) (2021-12-06T18:59:52Z) - Over-and-Under Complete Convolutional RNN for MRI Reconstruction [57.95363471940937]
MR画像再構成のための最近のディープラーニングに基づく手法は、通常、汎用的なオートエンコーダアーキテクチャを利用する。
OUCR(Over-and-Under Complete Convolu?tional Recurrent Neural Network)を提案する。
提案手法は, トレーニング可能なパラメータの少ない圧縮されたセンシングと, 一般的なディープラーニングに基づく手法に対して, 大幅な改善を実現する。
論文 参考訳(メタデータ) (2021-06-16T15:56:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。