論文の概要: Evaluating the Spectral Bias of Coordinate Based MLPs
- arxiv url: http://arxiv.org/abs/2301.05816v1
- Date: Sat, 14 Jan 2023 04:21:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-18 18:42:24.283693
- Title: Evaluating the Spectral Bias of Coordinate Based MLPs
- Title(参考訳): 座標系mlpのスペクトルバイアスの評価
- Authors: John Lazzari, Xiuwen Liu
- Abstract要約: 我々は,座標のスペクトルバイアスを,その活性化領域と勾配降下ダイナミクスに基づいて系統的に解析する。
これにより、ネットワークの表現能力と、様々な周波数の成分に対して勾配降下が収束する速度を関連付けることができる。
- 参考スコア(独自算出の注目度): 2.9443230571766854
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, representations given by fully connected neural networks
have shown to represent scenes, objects, and other measurements well in dense
low-dimensional settings. For these models, termed coordinate based MLPs,
sinusoidal encodings are necessary in allowing for convergence to the high
frequency components of the target function. This requirement is a result of
their severe spectral bias when using dense, low dimensional coordinate based
inputs. Previous work explained this phenomena using Neural Tangent Kernel
(NTK) and Fourier analysis. While these methods provide insight towards this
large spectral bias and the benefits of positional encoding, the properties of
ReLU networks that induce this behavior are not fully determined. Analyzing
spectral bias directly through the computations of ReLU networks would expose
their limitations in dense settings, while providing a clearer explanation as
to how this behavior emerges during the learning process. In this paper, we
systematically analyze the spectral bias of a coordinate based MLP through its
activation regions and gradient descent dynamics. This allows us to relate the
network's expressive capacity to the speed at which gradient descent converges
for components of varying frequency, and how the density of the data further
restricts the model.
- Abstract(参考訳): 近年、完全連結ニューラルネットワークによって与えられる表現は、密集した低次元の設定で、シーン、オブジェクト、その他の測定値を表現することが示されている。
これらのモデルでは、座標ベースMLPと呼ばれる正弦波符号化がターゲット関数の高周波成分に収束するために必要である。
この要件は、濃密で低次元の座標に基づく入力を用いた場合の、厳密なスペクトルバイアスの結果である。
前回の研究では、ニューラル・タンジェント・カーネル(ntk)とフーリエ解析を用いてこの現象を説明した。
これらの手法は、この大きなスペクトルバイアスと位置符号化の利点に対する洞察を与えるが、この振る舞いを誘導するreluネットワークの特性は完全には決定されない。
スペクトルバイアスを直接ReLUネットワークの計算を通して分析することは、その制限を密集した設定で明らかにし、学習プロセス中にこの振る舞いがどのように現れるかを明確に説明する。
本稿では,座標に基づくMLPのスペクトルバイアスを,その活性化領域と勾配勾配ダイナミクスを用いて系統的に解析する。
これにより、ネットワークの表現能力は、異なる周波数の成分に対して勾配降下が収束する速度と、データの密度がモデルをさらに制限する速度とを関連付けることができる。
関連論文リスト
- A Scalable Walsh-Hadamard Regularizer to Overcome the Low-degree
Spectral Bias of Neural Networks [79.28094304325116]
任意の関数を学習するニューラルネットワークの能力にもかかわらず、勾配降下によって訓練されたモデルは、しばしばより単純な関数に対するバイアスを示す。
我々は、この低度周波数に対するスペクトルバイアスが、現実のデータセットにおけるニューラルネットワークの一般化を実際にいかに損なうかを示す。
本稿では,ニューラルネットワークによる高次周波数学習を支援する,スケーラブルな機能正規化手法を提案する。
論文 参考訳(メタデータ) (2023-05-16T20:06:01Z) - Neural networks trained with SGD learn distributions of increasing
complexity [78.30235086565388]
勾配降下法を用いてトレーニングされたニューラルネットワークは、まず低次入力統計を用いて入力を分類する。
その後、トレーニング中にのみ高次の統計を利用する。
本稿では,DSBと他の単純度バイアスとの関係について論じ,学習における普遍性の原理にその意味を考察する。
論文 参考訳(メタデータ) (2022-11-21T15:27:22Z) - Momentum Diminishes the Effect of Spectral Bias in Physics-Informed
Neural Networks [72.09574528342732]
物理インフォームドニューラルネットワーク(PINN)アルゴリズムは、偏微分方程式(PDE)を含む幅広い問題を解く上で有望な結果を示している。
彼らはしばしば、スペクトルバイアスと呼ばれる現象のために、ターゲット関数が高周波の特徴を含むとき、望ましい解に収束しない。
本研究は, 運動量による勾配降下下で進化するPINNのトレーニングダイナミクスを, NTK(Neural Tangent kernel)を用いて研究するものである。
論文 参考訳(メタデータ) (2022-06-29T19:03:10Z) - Overcoming the Spectral Bias of Neural Value Approximation [17.546011419043644]
ディープニューラルネットワークを用いた値近似は、アルゴリズムの他の部分に学習信号を提供する主要なモジュールであることが多い。
神経核レグレッションにおける最近の研究は、スペクトルバイアスの存在を示唆している。そこでは、値関数の高周波成分を適合させるには、低周波成分よりも指数関数的に多くの勾配更新ステップが必要である。
我々は、カーネルレグレッションのレンズを通して、非政治強化学習を再検討し、複合神経カーネルを介してそのようなバイアスを克服することを提案する。
論文 参考訳(メタデータ) (2022-06-09T17:59:57Z) - The Spectral Bias of Polynomial Neural Networks [63.27903166253743]
PNN(Polynomial Neural Network)は、高頻度情報を重要視する画像生成と顔認識に特に有効であることが示されている。
これまでの研究では、ニューラルネットワークが低周波関数に対して$textitspectral bias$を示しており、トレーニング中に低周波成分のより高速な学習をもたらすことが示されている。
このような研究に触発されて、我々はPNNのTangent Kernel(NTK)のスペクトル分析を行う。
我々は、最近提案されたPNNのパラメトリゼーションである$Pi$-Netファミリがスピードアップすることを発見した。
論文 参考訳(メタデータ) (2022-02-27T23:12:43Z) - Spectral Complexity-scaled Generalization Bound of Complex-valued Neural
Networks [78.64167379726163]
本論文は,複素数値ニューラルネットワークの一般化を証明した最初の論文である。
複雑な値の畳み込みニューラルネットワークを異なるデータセット上でトレーニングして実験を行う。
論文 参考訳(メタデータ) (2021-12-07T03:25:25Z) - Understanding Layer-wise Contributions in Deep Neural Networks through
Spectral Analysis [6.0158981171030685]
本稿では,ディープニューラルネットワークの層次スペクトルバイアスを解析し,対象関数に対する誤差の低減における異なる層の寄与と関係付ける。
我々は、ディープニューラルネットワークのための高次元データセットにおいて、我々の理論を検証する実験結果を提供する。
論文 参考訳(メタデータ) (2021-11-06T22:49:46Z) - Spectral Bias in Practice: The Role of Function Frequency in
Generalization [10.7218588164913]
現代の画像分類網におけるスペクトルバイアスを測定する手法を提案する。
一般化するネットワークは、データの適合に十分な複雑さを持つと同時に、過度な適合を避けるのに十分な単純さとバランスをとっています。
我々の研究は、画像分類に使用されるニューラルネットワークのスペクトル挙動の測定と制御を可能にする。
論文 参考訳(メタデータ) (2021-10-06T00:16:10Z) - Fourier Features Let Networks Learn High Frequency Functions in Low
Dimensional Domains [69.62456877209304]
単純なフーリエ特徴写像を通して入力点を渡すことで、多層パーセプトロンが高周波関数を学習できることを示す。
結果は、最先端の結果を達成するコンピュータビジョンとグラフィックの進歩に光を当てた。
論文 参考訳(メタデータ) (2020-06-18T17:59:11Z) - Frequency Bias in Neural Networks for Input of Non-Uniform Density [27.75835200173761]
ニューラル・タンジェント・カーネル(NTK)モデルを用いて、変動密度がトレーニング力学に与える影響を探索する。
我々の結果は、Sphered-1$ の点 $x における収束は、時間 $O(kappad/p(x))$ ここで、$p(x)$ は局所密度$x$ を表す。
論文 参考訳(メタデータ) (2020-03-10T07:20:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。