論文の概要: Optimizing Mode Connectivity via Neuron Alignment
- arxiv url: http://arxiv.org/abs/2009.02439v2
- Date: Mon, 2 Nov 2020 23:56:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 20:42:40.932835
- Title: Optimizing Mode Connectivity via Neuron Alignment
- Title(参考訳): ニューロンアライメントによるモード接続の最適化
- Authors: N. Joseph Tatro, Pin-Yu Chen, Payel Das, Igor Melnyk, Prasanna
Sattigeri, Rongjie Lai
- Abstract要約: 経験的に、損失関数の局所ミニマは、損失がほぼ一定であるようなモデル空間の学習曲線で接続することができる。
本稿では,ネットワークの重み変化を考慮し,対称性がランドスケープ・コネクティビティに与える影響を明らかにするための,より一般的な枠組みを提案する。
- 参考スコア(独自算出の注目度): 84.26606622400423
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The loss landscapes of deep neural networks are not well understood due to
their high nonconvexity. Empirically, the local minima of these loss functions
can be connected by a learned curve in model space, along which the loss
remains nearly constant; a feature known as mode connectivity. Yet, current
curve finding algorithms do not consider the influence of symmetry in the loss
surface created by model weight permutations. We propose a more general
framework to investigate the effect of symmetry on landscape connectivity by
accounting for the weight permutations of the networks being connected. To
approximate the optimal permutation, we introduce an inexpensive heuristic
referred to as neuron alignment. Neuron alignment promotes similarity between
the distribution of intermediate activations of models along the curve. We
provide theoretical analysis establishing the benefit of alignment to mode
connectivity based on this simple heuristic. We empirically verify that the
permutation given by alignment is locally optimal via a proximal alternating
minimization scheme. Empirically, optimizing the weight permutation is critical
for efficiently learning a simple, planar, low-loss curve between networks that
successfully generalizes. Our alignment method can significantly alleviate the
recently identified robust loss barrier on the path connecting two adversarial
robust models and find more robust and accurate models on the path.
- Abstract(参考訳): ディープニューラルネットワークの損失状況は、その高い非凸性のためによく理解されていない。
経験上、これらの損失関数の局所的極小はモデル空間の学習曲線によって接続され、損失はほぼ一定であり、モード接続として知られる。
しかし、現在の曲線探索アルゴリズムはモデルウェイト置換によって生じる損失面における対称性の影響を考慮していない。
本研究では,ネットワークの重みの置換を考慮し,景観接続性に対する対称性の影響を調べるためのより一般的な枠組みを提案する。
最適な置換を近似するために,ニューロンアライメントと呼ばれる安価なヒューリスティックを導入する。
ニューロンアライメントは、曲線に沿ったモデルの中間活性化の分布の類似性を促進する。
この単純なヒューリスティックに基づくモード接続へのアライメントの利点を確立するための理論的解析を提供する。
アライメントによって与えられる置換は、近位交互最小化スキームによって局所的に最適であることを実証的に検証する。
経験上、重み置換の最適化は、ネットワーク間の単純で平面的で低損失の曲線を効率的に学習するのに不可欠である。
我々のアライメント法は、2つの対向ロバストモデルを結ぶ経路上の最近同定されたロバスト損失障壁を著しく軽減し、経路上のよりロバストで正確なモデルを見つけることができる。
関連論文リスト
- Improving Generalization of Deep Neural Networks by Optimum Shifting [33.092571599896814]
本稿では,ニューラルネットワークのパラメータを最小値からフラット値に変化させる,近位シフトと呼ばれる新しい手法を提案する。
本手法は,ニューラルネットワークの入力と出力が固定された場合,ネットワーク内の行列乗算を,未決定線形方程式系として扱うことができることを示す。
論文 参考訳(メタデータ) (2024-05-23T02:31:55Z) - Hallmarks of Optimization Trajectories in Neural Networks: Directional Exploration and Redundancy [75.15685966213832]
最適化トラジェクトリのリッチな方向構造をポイントワイズパラメータで解析する。
トレーニング中のスカラーバッチノルムパラメータは,ネットワーク全体のトレーニング性能と一致していることを示す。
論文 参考訳(メタデータ) (2024-03-12T07:32:47Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - On the Effect of Initialization: The Scaling Path of 2-Layer Neural
Networks [21.69222364939501]
教師付き学習では、正規化経路はゼロからの勾配降下の最適化経路の便利な理論的プロキシとして用いられることがある。
この経路がカーネルとリッチレジームの間に連続的に補間されていることを示す。
論文 参考訳(メタデータ) (2023-03-31T05:32:11Z) - Semantic Strengthening of Neuro-Symbolic Learning [85.6195120593625]
ニューロシンボリックアプローチは一般に確率論的目的のファジィ近似を利用する。
トラクタブル回路において,これを効率的に計算する方法を示す。
我々は,Warcraftにおける最小コストパスの予測,最小コスト完全マッチングの予測,スドクパズルの解法という3つの課題に対して,アプローチを検証した。
論文 参考訳(メタデータ) (2023-02-28T00:04:22Z) - Phenomenology of Double Descent in Finite-Width Neural Networks [29.119232922018732]
二重降下(double descend)は、モデルが属する体制に依存して行動を記述する。
我々は影響関数を用いて、人口減少とその下限の適切な表現を導出する。
本分析に基づき,損失関数が二重降下に与える影響について検討した。
論文 参考訳(メタデータ) (2022-03-14T17:39:49Z) - Nonasymptotic theory for two-layer neural networks: Beyond the
bias-variance trade-off [10.182922771556742]
本稿では,ReLUアクティベーション機能を持つ2層ニューラルネットワークに対する漸近的一般化理論を提案する。
過度にパラメータ化されたランダムな特徴モデルは次元性の呪いに悩まされ、従って準最適であることを示す。
論文 参考訳(メタデータ) (2021-06-09T03:52:18Z) - Rethinking Skip Connection with Layer Normalization in Transformers and
ResNets [49.87919454950763]
スキップ接続は、ディープニューラルネットワークの性能を改善するために広く使われているテクニックである。
本研究では,スキップ接続の有効性におけるスケール要因について検討する。
論文 参考訳(メタデータ) (2021-05-15T11:44:49Z) - On the Stability Properties and the Optimization Landscape of Training
Problems with Squared Loss for Neural Networks and General Nonlinear Conic
Approximation Schemes [0.0]
ニューラルネットワークと一般的な非線形円錐近似スキームの2乗損失を伴うトレーニング問題の最適化景観と安定性特性について検討する。
これらの不安定性に寄与する同じ効果が、サドル点や急激な局所ミニマの出現の原因でもあることを証明している。
論文 参考訳(メタデータ) (2020-11-06T11:34:59Z) - Neural Control Variates [71.42768823631918]
ニューラルネットワークの集合が、積分のよい近似を見つけるという課題に直面していることを示す。
理論的に最適な分散最小化損失関数を導出し、実際に安定したオンライントレーニングを行うための代替の複合損失を提案する。
具体的には、学習した光場近似が高次バウンスに十分な品質であることを示し、誤差補正を省略し、無視可能な可視バイアスのコストでノイズを劇的に低減できることを示した。
論文 参考訳(メタデータ) (2020-06-02T11:17:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。