論文の概要: Scattering Networks on Noncommutative Finite Groups
- arxiv url: http://arxiv.org/abs/2505.20950v1
- Date: Tue, 27 May 2025 09:41:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.552348
- Title: Scattering Networks on Noncommutative Finite Groups
- Title(参考訳): 非可換有限群上の散乱ネットワーク
- Authors: Maria Teresa Arias, Davide Barbieri, Eugenio Hernández,
- Abstract要約: 群同変畳み込みニューラルネットワーク(G-CNN)の文脈において、任意の有限群(必ずしもアーベル群ではない)に散乱変換を導入する。
ウェーブレット係数の特定の条件下では、散乱変換は非膨張性であり、変形下で安定であり、エネルギーを保ち、左右の群変換に対して同変であり、深さが大きくなるにつれて、散乱係数は信号の群変換に対する感度が低下することを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Scattering Networks were initially designed to elucidate the behavior of early layers in Convolutional Neural Networks (CNNs) over Euclidean spaces and are grounded in wavelets. In this work, we introduce a scattering transform on an arbitrary finite group (not necessarily abelian) within the context of group-equivariant convolutional neural networks (G-CNNs). We present wavelets on finite groups and analyze their similarity to classical wavelets. We demonstrate that, under certain conditions in the wavelet coefficients, the scattering transform is non-expansive, stable under deformations, preserves energy, equivariant with respect to left and right group translations, and, as depth increases, the scattering coefficients are less sensitive to group translations of the signal, all desirable properties of convolutional neural networks. Furthermore, we provide examples illustrating the application of the scattering transform to classify data with domains involving abelian and nonabelian groups.
- Abstract(参考訳): Scattering Networksは最初、ユークリッド空間上の畳み込みニューラルネットワーク(CNN)の初期層の振る舞いを解明するために設計され、ウェーブレットに接地されている。
本研究では、群同変畳み込みニューラルネットワーク(G-CNN)の文脈において、任意の有限群(必ずしもアーベル群ではない)に散乱変換を導入する。
有限群上のウェーブレットを提示し、それらの古典ウェーブレットとの類似性を解析する。
ウェーブレット係数の特定の条件下では、散乱変換は非膨張性であり、変形下で安定であり、エネルギーを保ち、左右の群変換に対して同変であり、深さが大きくなるにつれて、散乱係数は信号の群変換に対する感度が低下し、畳み込みニューラルネットワークの望ましい性質がすべて維持されることを示した。
さらに、散乱変換の応用を例示し、アーベル群と非アーベル群を含む領域でデータを分類する。
関連論文リスト
- Non Commutative Convolutional Signal Models in Neural Networks:
Stability to Small Deformations [111.27636893711055]
非可換畳み込みフィルタのフィルタ特性と安定性について検討する。
この結果は,グループニューラルネットワーク,マルチグラフニューラルネットワーク,四元系ニューラルネットワークに直接影響する。
論文 参考訳(メタデータ) (2023-10-05T20:27:22Z) - On the Implicit Bias of Linear Equivariant Steerable Networks [9.539074889921935]
群不変二元分類における線形同変ステアブルネットワーク上の勾配流の暗黙バイアスについて検討する。
入力表現のユニタリな仮定の下では、ステアブルネットワークとデータ拡張の等価性を確立する。
論文 参考訳(メタデータ) (2023-03-07T19:37:35Z) - Bispectral Neural Networks [1.0323063834827415]
ニューラルネットワークアーキテクチャBNN(Bispectral Neural Networks)を提案する。
BNNは、群、その既約表現、および対応する同変写像と完全不変写像を同時に学習することができる。
論文 参考訳(メタデータ) (2022-09-07T18:34:48Z) - Unified Fourier-based Kernel and Nonlinearity Design for Equivariant
Networks on Homogeneous Spaces [52.424621227687894]
等質空間上の群同変ネットワークに対する統一的枠組みを導入する。
昇降した特徴場のフーリエ係数の空間性を利用する。
安定化部分群におけるフーリエ係数としての特徴を取り扱う他の方法が、我々のアクティベーションの特別な場合であることを示す。
論文 参考訳(メタデータ) (2022-06-16T17:59:01Z) - On the Effective Number of Linear Regions in Shallow Univariate ReLU
Networks: Convergence Guarantees and Implicit Bias [50.84569563188485]
我々は、ラベルが$r$のニューロンを持つターゲットネットワークの符号によって決定されるとき、勾配流が方向収束することを示す。
我々の結果は、標本サイズによらず、幅が$tildemathcalO(r)$である、緩やかなオーバーパラメータ化をすでに維持しているかもしれない。
論文 参考訳(メタデータ) (2022-05-18T16:57:10Z) - Convolutional Filtering and Neural Networks with Non Commutative
Algebras [153.20329791008095]
本研究では,非可換畳み込みニューラルネットワークの一般化について検討する。
非可換畳み込み構造は作用素空間上の変形に対して安定であることを示す。
論文 参考訳(メタデータ) (2021-08-23T04:22:58Z) - LieTransformer: Equivariant self-attention for Lie Groups [49.9625160479096]
群等価ニューラルネットワークは群不変ニューラルネットワークの構成要素として用いられる。
我々は、文学の範囲を、ディープラーニングモデルの顕著な構築ブロックとして現れつつある自己注意にまで広げる。
任意のリー群とその離散部分群に同値なリー自己結合層からなる構造であるリー変換器を提案する。
論文 参考訳(メタデータ) (2020-12-20T11:02:49Z) - Lorentz Group Equivariant Neural Network for Particle Physics [58.56031187968692]
ローレンツ群の下での変換に関して完全に同値なニューラルネットワークアーキテクチャを提案する。
素粒子物理学における分類問題に対して、そのような同変構造は、比較的学習可能なパラメータの少ない非常に単純なモデルをもたらすことを実証する。
論文 参考訳(メタデータ) (2020-06-08T17:54:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。