論文の概要: Escaping Spectral Bias without Backpropagation: Fast Implicit Neural Representations with Extreme Learning Machines
- arxiv url: http://arxiv.org/abs/2602.07603v1
- Date: Sat, 07 Feb 2026 16:12:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.718056
- Title: Escaping Spectral Bias without Backpropagation: Fast Implicit Neural Representations with Extreme Learning Machines
- Title(参考訳): バックプロパゲーションを伴わないスペクトルバイアスのエスケープ:極端学習機械を用いた高速入射ニューラル表現
- Authors: Woojin Cho, Junghwan Park,
- Abstract要約: 暗黙の神経表現(INR)を訓練して、細部を捉えることは、通常反復的なバックプロパゲーションに依存する。
ELM-INRは、ドメインを反復的に分解し、エクストリームラーニングマシン(ELM)をクローズド形式で各ローカル問題に適合させるバックプロパゲーションフリーINRである。
この設計は、局所予測器を一意に分割することで高速で数値的に堅牢な再構成をもたらす。
- 参考スコア(独自算出の注目度): 4.6894180050630005
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Training implicit neural representations (INRs) to capture fine-scale details typically relies on iterative backpropagation and is often hindered by spectral bias when the target exhibits highly non-uniform frequency content. We propose ELM-INR, a backpropagation-free INR that decomposes the domain into overlapping subdomains and fits each local problem using an Extreme Learning Machine (ELM) in closed form, replacing iterative optimization with stable linear least-squares solutions. This design yields fast and numerically robust reconstruction by combining local predictors through a partition of unity. To understand where approximation becomes difficult under fixed local capacity, we analyze the method from a spectral Barron norm perspective, which reveals that global reconstruction error is dominated by regions with high spectral complexity. Building on this insight, we introduce BEAM, an adaptive mesh refinement strategy that balances spectral complexity across subdomains to improve reconstruction quality in capacity-constrained regimes.
- Abstract(参考訳): 暗黙の神経表現(INRs)を訓練して、細部の詳細を捉えることは、通常反復的なバックプロパゲーションに依存し、ターゲットが高度に一様でない周波数内容を示すとき、しばしばスペクトルバイアスによって妨げられる。
ELM-INRはドメインを重なり合うサブドメインに分解し、各局所問題を閉じた形でエクストリームラーニングマシン(ELM)を用いて適用し、反復最適化を線形最小二乗解に置き換えるバックプロパゲーションフリーINRである。
この設計は、局所予測器を一意に分割することで高速で数値的に堅牢な再構成をもたらす。
局所的なキャパシティの固定化によって近似が困難になるかを理解するため,スペクトルバロンノルムの観点から解析を行い,大域的再構成誤差はスペクトル複雑性の高い領域に支配されていることを示した。
BEAMは、サブドメイン間でスペクトルの複雑さをバランスさせ、キャパシティに制約のあるレシエーションにおける再構成品質を改善するための適応メッシュリファインメント戦略である。
関連論文リスト
- Self-Reinforced Deep Priors for Reparameterized Full Waveform Inversion [3.930876721046067]
本稿では, 自己強化型DIP-FWIフレームワークを提案する。このフレームワークでは, ステアリングアルゴリズムが繰り返し毎に, ネットワークパラメータと入力を交互に更新する。
SRDIP-FWIは、マルチスケールFWIよりも優れた解像度、精度、深度浸透を実現している。
論文 参考訳(メタデータ) (2025-12-09T06:30:39Z) - Mixture of Ranks with Degradation-Aware Routing for One-Step Real-World Image Super-Resolution [76.66229730098759]
実世界の画像超解像(Real-ISR)では、既存のアプローチは主に微調整された事前学習拡散モデルに依存している。
単一ステップ画像超解像のためのMixture-of-Ranks (MoR)アーキテクチャを提案する。
LoRAの各ランクを独立した専門家として扱う、きめ細かい専門家分割戦略を導入する。
論文 参考訳(メタデータ) (2025-11-20T04:11:44Z) - Low-Rank Tensor Recovery via Variational Schatten-p Quasi-Norm and Jacobian Regularization [49.85875869048434]
暗黙的神経表現のためのニューラルネットワークによりパラメータ化されたCPベースの低ランクテンソル関数を提案する。
本研究では、スペーサーCP分解を実現するために、冗長なランク1成分に変分Schatten-p quasi-normを導入する。
滑らか性のために、ヤコビアンとハッチンソンのトレース推定器のスペクトルノルムに基づく正規化項を提案する。
論文 参考訳(メタデータ) (2025-06-27T11:23:10Z) - Generalization of Scaled Deep ResNets in the Mean-Field Regime [55.77054255101667]
無限深度および広帯域ニューラルネットワークの限界におけるエンスケールResNetについて検討する。
この結果から,遅延学習体制を超えた深層ResNetの一般化能力に関する新たな知見が得られた。
論文 参考訳(メタデータ) (2024-03-14T21:48:00Z) - Convergence of mean-field Langevin dynamics: Time and space
discretization, stochastic gradient, and variance reduction [49.66486092259376]
平均場ランゲヴィンダイナミクス(英: mean-field Langevin dynamics、MFLD)は、分布依存のドリフトを含むランゲヴィン力学の非線形一般化である。
近年の研究では、MFLDは測度空間で機能するエントロピー規則化された凸関数を地球規模で最小化することが示されている。
有限粒子近似,時間分散,勾配近似による誤差を考慮し,MFLDのカオスの均一時間伝播を示す枠組みを提供する。
論文 参考訳(メタデータ) (2023-06-12T16:28:11Z) - Hyperspectral Image Denoising Using Non-convex Local Low-rank and Sparse
Separation with Spatial-Spectral Total Variation Regularization [49.55649406434796]
本研究では,HSI復調のためのロバストな主成分分析のための新しい非特異なアプローチを提案する。
我々は、ランクとスパースコンポーネントの両方に対する正確な近似を開発する。
シミュレーションと実HSIの両方の実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-01-08T11:48:46Z) - Multi-Head ReLU Implicit Neural Representation Networks [3.04585143845864]
暗黙的神経表現(INR)のための新しいマルチヘッド多層パーセプトロン(MLP)構造
本稿では,提案モデルが従来のReLUネットワークの特別なバイアスに悩まされず,優れた性能を有することを示す。
論文 参考訳(メタデータ) (2021-10-07T13:27:35Z) - Probabilistic partition of unity networks: clustering based deep
approximation [0.0]
ユニタリネットワーク(POU-Nets)の分割は、回帰とPDEの解に対する代数収束率を実現することができる。
ガウス雑音モデルを用いてPOU-Netを拡張し、最大可算損失の勾配に基づく一般化を導出できる確率的一般化を得る。
本研究では,高次元・低次元での性能を定量化するためのベンチマークを行い,高次元空間内のデータの潜在次元にのみ依存することを示す。
論文 参考訳(メタデータ) (2021-07-07T08:02:00Z) - Learned convex regularizers for inverse problems [3.294199808987679]
本稿では,逆問題に対する正規化器として,データ適応型入力ニューラルネットワーク(ICNN)を学習することを提案する。
パラメータ空間における単調な誤差を反復で減少させる部分次アルゴリズムの存在を実証する。
提案した凸正則化器は, 逆問題に対する最先端のデータ駆動技術に対して, 少なくとも競争力があり, 時には優位であることを示す。
論文 参考訳(メタデータ) (2020-08-06T18:58:35Z) - Stochastic spectral embedding [0.0]
確率スペクトル埋め込み(SSE)に基づく新しい逐次適応サロゲートモデリング法を提案する。
本手法は,複雑性と入力次元の異なるモデルの集合上で,最先端のスパースカオス展開に対して,どのように好意的に比較されるかを示す。
論文 参考訳(メタデータ) (2020-04-09T11:00:07Z) - Modal Regression based Structured Low-rank Matrix Recovery for
Multi-view Learning [70.57193072829288]
近年、低ランクなマルチビューサブスペース学習は、クロスビューの分類において大きな可能性を示している。
既存のLMvSLベースの手法では、ビューの区別と差別を同時に扱うことができない。
本稿では,視差を効果的に除去し,識別性を向上する独自の方法であるStructured Low-rank Matrix Recovery (SLMR)を提案する。
論文 参考訳(メタデータ) (2020-03-22T03:57:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。