論文の概要: Noether: The More Things Change, the More Stay the Same
- arxiv url: http://arxiv.org/abs/2104.05508v1
- Date: Mon, 12 Apr 2021 14:41:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 14:33:28.736435
- Title: Noether: The More Things Change, the More Stay the Same
- Title(参考訳): Noether: 物事が変化すれば変わるほど、同じ状態になる
- Authors: Grzegorz G{\l}uch, R\"udiger Urbanke
- Abstract要約: ネーターの有名な定理は対称性が保存された量につながると主張する。
勾配降下下のニューラルネットワークの領域では、モデル対称性は勾配経路の制約を暗示する。
対称性は、勾配降下下でのニューラルネットワークの性能を理解する上で、さらに重要なツールであると考えることができる。
- 参考スコア(独自算出の注目度): 1.14219428942199
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Symmetries have proven to be important ingredients in the analysis of neural
networks. So far their use has mostly been implicit or seemingly coincidental.
We undertake a systematic study of the role that symmetry plays. In
particular, we clarify how symmetry interacts with the learning algorithm. The
key ingredient in our study is played by Noether's celebrated theorem which,
informally speaking, states that symmetry leads to conserved quantities (e.g.,
conservation of energy or conservation of momentum). In the realm of neural
networks under gradient descent, model symmetries imply restrictions on the
gradient path. E.g., we show that symmetry of activation functions leads to
boundedness of weight matrices, for the specific case of linear activations it
leads to balance equations of consecutive layers, data augmentation leads to
gradient paths that have "momentum"-type restrictions, and time symmetry leads
to a version of the Neural Tangent Kernel.
Symmetry alone does not specify the optimization path, but the more
symmetries are contained in the model the more restrictions are imposed on the
path. Since symmetry also implies over-parametrization, this in effect implies
that some part of this over-parametrization is cancelled out by the existence
of the conserved quantities.
Symmetry can therefore be thought of as one further important tool in
understanding the performance of neural networks under gradient descent.
- Abstract(参考訳): 対称性はニューラルネットワークの分析において重要な要素であることが証明されている。
今のところ、それらの使用はほとんどが暗黙的または一見偶然である。
我々は対称性が果たす役割を体系的に研究する。
特に,対称性が学習アルゴリズムとどのように相互作用するかを明らかにする。
この研究の重要な要素はネーターの有名な定理で、非公式に言えば対称性は保存された量(エネルギーの保存や運動量の保存など)をもたらす。
勾配降下下のニューラルネットワークの領域では、モデル対称性は勾配経路の制約を暗示する。
例えば、活性化関数の対称性は重み行列の有界性につながり、線形活性化の特定の場合、連続した層の平衡方程式につながり、データの拡張は「運動量」型の制限を持つ勾配経路につながり、時間対称性は神経接核のバージョンに繋がる。
対称性だけは最適化経路を規定しないが、より多くの対称性がモデルに含まれるほど、経路により多くの制限が課される。
対称性もまた過度なパラメトリゼーションを意味するので、これは事実上、この過度なパラメトリゼーションの一部が保存量の存在によって取り消されることを意味する。
したがって、対称性は勾配降下下でのニューラルネットワークの性能を理解する上で、さらに重要なツールであると考えることができる。
関連論文リスト
- The Implicit Bias of Gradient Noise: A Symmetry Perspective [7.6730288475318815]
損失関数に連続対称性が存在する場合、勾配降下(SGD)の学習力学を特徴付ける。
対称性が学習力学にどのように影響するかによって、対称性の族を2つのクラスに分けることができることを示す。
論文 参考訳(メタデータ) (2024-02-11T13:00:04Z) - Lie Point Symmetry and Physics Informed Networks [59.56218517113066]
本稿では、損失関数を用いて、PINNモデルが基礎となるPDEを強制しようとするのと同じように、リー点対称性をネットワークに通知するロス関数を提案する。
我々の対称性の損失は、リー群の無限小生成元がPDE解を保存することを保証する。
実験により,PDEのリー点対称性による誘導バイアスはPINNの試料効率を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2023-11-07T19:07:16Z) - Learning Layer-wise Equivariances Automatically using Gradients [66.81218780702125]
畳み込みは等価対称性をニューラルネットワークにエンコードし、より優れた一般化性能をもたらす。
対称性は、ネットワークが表現できる機能、事前に指定する必要、適応できない機能に対して、固定されたハード制約を提供する。
私たちのゴールは、勾配を使ってデータから自動的に学習できるフレキシブル対称性の制約を可能にすることです。
論文 参考訳(メタデータ) (2023-10-09T20:22:43Z) - Symmetry Leads to Structured Constraint of Learning [0.0]
機械学習モデルの学習行動に影響を及ぼすか、決定しないかにかかわらず、損失関数対称性の重要性を明らかにする。
再スケーリング対称性はスパース性、回転対称性は低いランク性、置換対称性は均質なアンサンブルをもたらすことを示す。
論文 参考訳(メタデータ) (2023-09-29T02:21:31Z) - Identifying the Group-Theoretic Structure of Machine-Learned Symmetries [41.56233403862961]
本稿では,そのような機械学習対称性の群理論構造を検証し,同定する手法を提案する。
粒子物理学への応用として、非アベリアゲージ対称性の自発的破壊後の残留対称性の同定を示す。
論文 参考訳(メタデータ) (2023-09-14T17:03:50Z) - Third quantization of open quantum systems: new dissipative symmetries
and connections to phase-space and Keldysh field theory formulations [77.34726150561087]
3つの方法全てを明示的に接続する方法で第3量子化の手法を再構成する。
まず、我々の定式化は、すべての二次ボゾンあるいはフェルミオンリンドブラディアンに存在する基本散逸対称性を明らかにする。
ボソンに対して、ウィグナー関数と特徴関数は密度行列の「波動関数」と考えることができる。
論文 参考訳(メタデータ) (2023-02-27T18:56:40Z) - Deep Learning Symmetries and Their Lie Groups, Algebras, and Subalgebras
from First Principles [55.41644538483948]
ラベル付きデータセットに存在する連続した対称性群の検出と同定のためのディープラーニングアルゴリズムを設計する。
完全に接続されたニューラルネットワークを用いて、変換対称性と対応するジェネレータをモデル化する。
また,Lie群とその性質の数学的研究に機械学習アプローチを使うための扉を開く。
論文 参考訳(メタデータ) (2023-01-13T16:25:25Z) - Symmetry protected entanglement in random mixed states [0.0]
ヒルベルト空間の対称セクターにおける典型的状態の3部交絡性に対する対称性の効果について検討する。
特に、アベリア対称性を考察し、$mathbbZ_N$ および $U(1)$ 対称性群を持つ系の対数的絡み合いの負性について明示的な表現を導出する。
論文 参考訳(メタデータ) (2021-11-30T19:00:07Z) - Noether's Learning Dynamics: The Role of Kinetic Symmetry Breaking in
Deep Learning [7.310043452300738]
性質上、対称性は規則性を支配し、対称性破壊はテクスチャをもたらす。
近年の実験では,損失関数の対称性が学習性能と密接に関連していることが示唆された。
学習則の対称性を損失関数に加えて考慮し,新しい設計原理として対称性の破れを提案する。
論文 参考訳(メタデータ) (2021-05-06T14:36:10Z) - Symmetry Breaking in Symmetric Tensor Decomposition [44.181747424363245]
我々は、対称テンソルの点階分解を計算する非対称問題を考える。
損失関数の臨界点が標準手法によって検出されることを示す。
論文 参考訳(メタデータ) (2021-03-10T18:11:22Z) - Finding Symmetry Breaking Order Parameters with Euclidean Neural
Networks [2.735801286587347]
我々は、対称性同変ニューラルネットワークがキュリーの原理を支持し、多くの対称性関連科学的な疑問を単純な最適化問題に表すのに使用できることを示した。
これらの特性を数学的に証明し、ユークリッド対称性同変ニューラルネットワークを訓練し、対称性を破る入力を学習し、正方形を長方形に変形させ、ペロブスカイトのオクタヘドラ傾斜パターンを生成する。
論文 参考訳(メタデータ) (2020-07-04T17:24:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。