論文の概要: On Symmetries in Convolutional Weights
- arxiv url: http://arxiv.org/abs/2503.19215v1
- Date: Mon, 24 Mar 2025 23:41:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 16:55:40.856172
- Title: On Symmetries in Convolutional Weights
- Title(参考訳): 畳み込み重みの対称性について
- Authors: Bilal Alsallakh, Timothy Wroge, Vivek Miglani, Narine Kokhlikyan,
- Abstract要約: 内部層における平均核は、特定の方向を好むのではなく、中心に対して対称である傾向がある。
我々は、対称性がシフトやフリップの整合性などの望ましい性質とどのように相関し、畳み込みニューラルネットワークにおいて固有の帰納バイアスを構成するかを示す。
- 参考スコア(独自算出の注目度): 5.0445750949847605
- License:
- Abstract: We explore the symmetry of the mean k x k weight kernel in each layer of various convolutional neural networks. Unlike individual neurons, the mean kernels in internal layers tend to be symmetric about their centers instead of favoring specific directions. We investigate why this symmetry emerges in various datasets and models, and how it is impacted by certain architectural choices. We show how symmetry correlates with desirable properties such as shift and flip consistency, and might constitute an inherent inductive bias in convolutional neural networks.
- Abstract(参考訳): 様々な畳み込みニューラルネットワークの各層における平均kxk重みカーネルの対称性について検討する。
個々のニューロンとは異なり、内部層の平均核は特定の方向を好むのではなく、その中心に対して対称である。
この対称性が様々なデータセットやモデルに現れる理由と,特定のアーキテクチャ選択の影響について検討する。
我々は、対称性がシフトやフリップの整合性などの望ましい性質とどのように相関し、畳み込みニューラルネットワークにおいて固有の帰納バイアスを構成するかを示す。
関連論文リスト
- Exceptional Points and Stability in Nonlinear Models of Population Dynamics having $\mathcal{PT}$ symmetry [49.1574468325115]
我々は、進化ゲーム理論の複製子方程式と、人口動態のロトカ・ボルテラ系によって支配されるモデルを分析する。
a) 支配対称性特性がモデルの大域的性質と結びついている場合、および(b) それらの対称性が定常状態の周囲に局所的に現れる場合の2つのケースにおける例外点の出現について検討する。
論文 参考訳(メタデータ) (2024-11-19T02:15:59Z) - The Empirical Impact of Neural Parameter Symmetries, or Lack Thereof [50.49582712378289]
ニューラル・ネットワーク・アーキテクチャの導入により,ニューラル・パラメータ・対称性の影響について検討する。
我々は,パラメータ空間対称性を低減するために,標準的なニューラルネットワークを改良する2つの手法を開発した。
実験により,パラメータ対称性の経験的影響に関する興味深い観察がいくつか示された。
論文 参考訳(メタデータ) (2024-05-30T16:32:31Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Lie Point Symmetry and Physics Informed Networks [59.56218517113066]
本稿では、損失関数を用いて、PINNモデルが基礎となるPDEを強制しようとするのと同じように、リー点対称性をネットワークに通知するロス関数を提案する。
我々の対称性の損失は、リー群の無限小生成元がPDE解を保存することを保証する。
実験により,PDEのリー点対称性による誘導バイアスはPINNの試料効率を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2023-11-07T19:07:16Z) - Symmetry Induces Structure and Constraint of Learning [0.0]
機械学習モデルの学習行動に影響を及ぼすか、決定しないかにかかわらず、損失関数対称性の重要性を明らかにする。
ディープラーニングにおけるミラー対称性の一般的な例としては、再スケーリング、回転、置換対称性がある。
ニューラルネットワークにおける可塑性の喪失や様々な崩壊現象などの興味深い現象を理論的枠組みで説明できることを示す。
論文 参考訳(メタデータ) (2023-09-29T02:21:31Z) - Interrelation of equivariant Gaussian processes and convolutional neural
networks [77.34726150561087]
現在、ニューラルネットワーク(NN)とガウス過程(GP)の関係に基づく機械学習(ML)には、かなり有望な新しい傾向がある。
本研究では、ベクトル値のニューロン活性化を持つ2次元ユークリッド群とそれに対応する独立に導入された同変ガウス過程(GP)との関係を確立する。
論文 参考訳(メタデータ) (2022-09-17T17:02:35Z) - On the Importance of Asymmetry for Siamese Representation Learning [53.86929387179092]
シームズネットワークは、2つの並列エンコーダと概念的に対称である。
ネットワーク内の2つのエンコーダを明確に区別することで,非対称性の重要性について検討する。
非対称設計による改善は、より長いトレーニングスケジュール、複数の他のフレームワーク、より新しいバックボーンに一般化されている。
論文 参考訳(メタデータ) (2022-04-01T17:57:24Z) - Approximately Equivariant Networks for Imperfectly Symmetric Dynamics [24.363954435050264]
我々のモデルは、シミュレーションされた乱流領域と実世界のマルチストリームジェット流の両方において、対称性バイアスのないベースラインと過度に厳密な対称性を持つベースラインの両方より優れていることが判明した。
論文 参考訳(メタデータ) (2022-01-28T07:31:28Z) - Encoding Involutory Invariance in Neural Networks [1.6371837018687636]
ある状況では、ニューラルネットワーク(NN)は、基礎となる物理対称性に従うデータに基づいて訓練される。
本研究では、関数がパリティまでのインボリュート線型/ファイン変換に対して不変な特別な対称性について検討する。
数値実験により,提案モデルが与えられた対称性を尊重しながらベースラインネットワークより優れていたことが示唆された。
また,本手法を水平/垂直反射対称性を持つデータセットに対する畳み込みNN分類タスクに適用する手法も提案されている。
論文 参考訳(メタデータ) (2021-06-07T16:07:15Z) - Symmetry-via-Duality: Invariant Neural Network Densities from
Parameter-Space Correlators [0.0]
ネットワーク密度の対称性は、ネットワーク相関関数の二重計算によって決定できる。
初期密度における対称性の量は、Fashion-MNISTで訓練されたネットワークの精度に影響を与えることを示した。
論文 参考訳(メタデータ) (2021-06-01T18:00:06Z) - Finding Symmetry Breaking Order Parameters with Euclidean Neural
Networks [2.735801286587347]
我々は、対称性同変ニューラルネットワークがキュリーの原理を支持し、多くの対称性関連科学的な疑問を単純な最適化問題に表すのに使用できることを示した。
これらの特性を数学的に証明し、ユークリッド対称性同変ニューラルネットワークを訓練し、対称性を破る入力を学習し、正方形を長方形に変形させ、ペロブスカイトのオクタヘドラ傾斜パターンを生成する。
論文 参考訳(メタデータ) (2020-07-04T17:24:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。