論文の概要: Equivariance and generalization in neural networks
- arxiv url: http://arxiv.org/abs/2112.12493v1
- Date: Thu, 23 Dec 2021 12:38:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-24 14:55:47.854203
- Title: Equivariance and generalization in neural networks
- Title(参考訳): ニューラルネットワークにおける等価性と一般化
- Authors: Srinath Bulusu, Matteo Favoni, Andreas Ipp, David I. M\"uller, Daniel
Schuh
- Abstract要約: ネットワーク特性間の翻訳的等式を組み込んだ結果に焦点をあてる。
等変ネットワークの利点は、複素スカラー場の理論を研究することによって実証される。
ほとんどのタスクにおいて、最良の同変アーキテクチャは、非同変アーキテクチャよりもはるかに優れた性能と一般化を達成できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The crucial role played by the underlying symmetries of high energy physics
and lattice field theories calls for the implementation of such symmetries in
the neural network architectures that are applied to the physical system under
consideration. In these proceedings, we focus on the consequences of
incorporating translational equivariance among the network properties,
particularly in terms of performance and generalization. The benefits of
equivariant networks are exemplified by studying a complex scalar field theory,
on which various regression and classification tasks are examined. For a
meaningful comparison, promising equivariant and non-equivariant architectures
are identified by means of a systematic search. The results indicate that in
most of the tasks our best equivariant architectures can perform and generalize
significantly better than their non-equivariant counterparts, which applies not
only to physical parameters beyond those represented in the training set, but
also to different lattice sizes.
- Abstract(参考訳): 高エネルギー物理学や格子場理論の基盤となる対称性が果たす重要な役割は、考慮中の物理系に適用されるニューラルネットワークアーキテクチャにおけるそのような対称性の実装である。
本稿では,ネットワーク特性,特に性能と一般化の点において,翻訳の等価性を組み込んだ結果に焦点をあてる。
等変ネットワークの利点は、様々な回帰と分類タスクを調べる複素スカラー場理論を研究することによって例示される。
有意義な比較のために、有望な同変および非同変アーキテクチャを体系的な探索によって同定する。
その結果、ほとんどのタスクにおいて、最良の同変アーキテクチャは、非同変アーキテクチャよりもはるかに優れた性能と一般化が可能であることが示され、これはトレーニングセットで表されるものだけでなく、異なる格子サイズにも適用される。
関連論文リスト
- Symmetry Discovery for Different Data Types [52.2614860099811]
等価ニューラルネットワークは、そのアーキテクチャに対称性を取り入れ、より高度な一般化性能を実現する。
本稿では,タスクの入出力マッピングを近似したトレーニングニューラルネットワークによる対称性発見手法であるLieSDを提案する。
我々は,2体問題,慣性行列予測のモーメント,トップクォークタグ付けといった課題におけるLieSDの性能を検証した。
論文 参考訳(メタデータ) (2024-10-13T13:39:39Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Equivariant Ensembles and Regularization for Reinforcement Learning in Map-based Path Planning [5.69473229553916]
本稿では,特定のニューラルネットワーク成分を使わずに,同変ポリシーと不変値関数を構築する手法を提案する。
等変アンサンブルと正則化がサンプル効率と性能にどのような影響を与えるかを示す。
論文 参考訳(メタデータ) (2024-03-19T16:01:25Z) - A Characterization Theorem for Equivariant Networks with Point-wise
Activations [13.00676132572457]
回転同変ネットワークは、連結コンパクト群に対して同変である任意のネットワークに対してのみ不変であることを示す。
本稿では, 畳み込み可能な畳み込み型ニューラルネットワークの特徴空間が, 自明な表現であることを示す。
論文 参考訳(メタデータ) (2024-01-17T14:30:46Z) - Optimization Dynamics of Equivariant and Augmented Neural Networks [2.7918308693131135]
対称データに基づくニューラルネットワークの最適化について検討する。
アーキテクチャを制約する戦略を、データ拡張を使用する戦略と同等に扱う戦略と比較する。
後者の状況においても, 定常点が拡張トレーニングにおいて不安定であることは明らかだが, 明らかな同変モデルに対しては安定である。
論文 参考訳(メタデータ) (2023-03-23T17:26:12Z) - Generalization capabilities of neural networks in lattice applications [0.0]
翻訳等変ニューラルネットワークを用いた非同変ニューラルネットワークの利点について検討する。
我々の最良の同変アーキテクチャは、その非同変アーキテクチャよりも大幅に性能を向上し、一般化できることが示される。
論文 参考訳(メタデータ) (2021-12-23T11:48:06Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - Frame Averaging for Invariant and Equivariant Network Design [50.87023773850824]
フレーム平均化(FA)は、既知の(バックボーン)アーキテクチャを新しい対称性タイプに不変あるいは同変に適応するためのフレームワークである。
FAモデルが最大表現力を持つことを示す。
我々は,新しいユニバーサルグラフニューラルネット(GNN),ユニバーサルユークリッド運動不変点クラウドネットワーク,およびユークリッド運動不変メッセージパッシング(MP)GNNを提案する。
論文 参考訳(メタデータ) (2021-10-07T11:05:23Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z) - Generalization capabilities of translationally equivariant neural
networks [0.0]
本研究では,2次元格子上の複素スカラー場理論に着目し,群同変畳み込みニューラルネットワークアーキテクチャの利点について検討する。
有意義な比較のために、同値および非同値ニューラルネットワークアーキテクチャを体系的に探索し、様々な回帰および分類タスクに適用する。
我々の最善の同変アーキテクチャは、それらの非同変アーキテクチャよりも相当よく機能し、一般化できることを実証する。
論文 参考訳(メタデータ) (2021-03-26T18:53:36Z) - Joint Network Topology Inference via Structured Fusion Regularization [70.30364652829164]
結合ネットワークトポロジ推論は、異種グラフ信号から複数のグラフラプラシア行列を学習する標準的な問題を表す。
新規な構造化融合正規化に基づく一般グラフ推定器を提案する。
提案するグラフ推定器は高い計算効率と厳密な理論保証の両方を享受できることを示す。
論文 参考訳(メタデータ) (2021-03-05T04:42:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。