論文の概要: Algebraic Neural Networks: Stability to Deformations
- arxiv url: http://arxiv.org/abs/2009.01433v5
- Date: Wed, 30 Jun 2021 23:17:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 06:58:41.932609
- Title: Algebraic Neural Networks: Stability to Deformations
- Title(参考訳): 代数ニューラルネットワーク:変形の安定性
- Authors: Alejandro Parada-Mayorga and Alejandro Ribeiro
- Abstract要約: 可換代数を用いた代数ニューラルネットワーク(AlgNN)について検討する。
AlgNNはユークリッド畳み込みニューラルネットワーク、グラフニューラルネットワーク、グループニューラルネットワークなどの多様なアーキテクチャを統合する。
- 参考スコア(独自算出の注目度): 179.55535781816343
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study algebraic neural networks (AlgNNs) with commutative algebras which
unify diverse architectures such as Euclidean convolutional neural networks,
graph neural networks, and group neural networks under the umbrella of
algebraic signal processing. An AlgNN is a stacked layered information
processing structure where each layer is conformed by an algebra, a vector
space and a homomorphism between the algebra and the space of endomorphisms of
the vector space. Signals are modeled as elements of the vector space and are
processed by convolutional filters that are defined as the images of the
elements of the algebra under the action of the homomorphism. We analyze
stability of algebraic filters and AlgNNs to deformations of the homomorphism
and derive conditions on filters that lead to Lipschitz stable operators. We
conclude that stable algebraic filters have frequency responses -- defined as
eigenvalue domain representations -- whose derivative is inversely proportional
to the frequency -- defined as eigenvalue magnitudes. It follows that for a
given level of discriminability, AlgNNs are more stable than algebraic filters,
thereby explaining their better empirical performance. This same phenomenon has
been proven for Euclidean convolutional neural networks and graph neural
networks. Our analysis shows that this is a deep algebraic property shared by a
number of architectures.
- Abstract(参考訳): 我々は,代数的信号処理の傘の下で,ユークリッド畳み込みニューラルネットワーク,グラフニューラルネットワーク,グループニューラルネットワークなどの多種多様なアーキテクチャを統一する可換代数を用いて代数的ニューラルネットワーク(AlgNN)を研究する。
algnnは、各層が代数、ベクトル空間、および代数とベクトル空間の自己準同型空間の間の準同型によって構成される、積み重ねられた情報処理構造である。
信号はベクトル空間の要素としてモデル化され、準同型の作用の下で代数の元の像として定義される畳み込みフィルタによって処理される。
我々は、代数フィルタとAlgNNの安定性を、リプシッツ安定作用素につながるフィルタ上の準同型および導出条件の変形に解析する。
安定な代数的フィルタは固有値領域表現として定義される周波数応答を持ち、その微分は固有値等級として定義される。
与えられたレベルの識別性については、AlgNNは代数フィルタよりも安定であり、より優れた経験的性能を説明できる。
この現象はユークリッドの畳み込みニューラルネットワークとグラフニューラルネットワークで証明されている。
我々の分析は、これは多くのアーキテクチャで共有される深い代数的性質であることを示している。
関連論文リスト
- Non Commutative Convolutional Signal Models in Neural Networks:
Stability to Small Deformations [111.27636893711055]
非可換畳み込みフィルタのフィルタ特性と安定性について検討する。
この結果は,グループニューラルネットワーク,マルチグラフニューラルネットワーク,四元系ニューラルネットワークに直接影響する。
論文 参考訳(メタデータ) (2023-10-05T20:27:22Z) - Geometric Graph Filters and Neural Networks: Limit Properties and
Discriminability Trade-offs [122.06927400759021]
本稿では,グラフニューラルネットワーク (GNN) と多様体ニューラルネットワーク (MNN) の関係について検討する。
これらのグラフ上の畳み込みフィルタとニューラルネットワークが連続多様体上の畳み込みフィルタとニューラルネットワークに収束することを示す。
論文 参考訳(メタデータ) (2023-05-29T08:27:17Z) - Fast computation of permutation equivariant layers with the partition
algebra [0.0]
入力の置換に不変あるいは不変の線形ニューラルネットワーク層は、現代のディープラーニングアーキテクチャのコアビルディングブロックを形成する。
例えば、DeepSetのレイヤや、トランスフォーマーの注目ブロックやグラフニューラルネットワークで発生する線形レイヤなどがある。
論文 参考訳(メタデータ) (2023-03-10T21:13:12Z) - Bispectral Neural Networks [1.0323063834827415]
ニューラルネットワークアーキテクチャBNN(Bispectral Neural Networks)を提案する。
BNNは、群、その既約表現、および対応する同変写像と完全不変写像を同時に学習することができる。
論文 参考訳(メタデータ) (2022-09-07T18:34:48Z) - Stability of Aggregation Graph Neural Networks [153.70485149740608]
グラフの摂動を考慮したアグリゲーショングラフニューラルネットワーク(Agg-GNN)の安定性特性について検討した。
安定性境界は各ノードに作用するCNNの第1層におけるフィルタの特性によって定義される。
また、Agg-GNNでは、写像演算子の選択性は、CNNステージの第1層においてのみフィルタの特性に結びついていると結論付けている。
論文 参考訳(メタデータ) (2022-07-08T03:54:52Z) - Convolutional Filtering and Neural Networks with Non Commutative
Algebras [153.20329791008095]
本研究では,非可換畳み込みニューラルネットワークの一般化について検討する。
非可換畳み込み構造は作用素空間上の変形に対して安定であることを示す。
論文 参考訳(メタデータ) (2021-08-23T04:22:58Z) - Stability of Algebraic Neural Networks to Small Perturbations [179.55535781816343]
Algebraic Neural Network (AlgNN) は、代数的信号モデルと関連する各層のカスケードで構成されている。
畳み込みという形式的な概念を用いるアーキテクチャは、シフト演算子の特定の選択を超えて、いかに安定であるかを示す。
論文 参考訳(メタデータ) (2020-10-22T09:10:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。