論文の概要: Stability of Algebraic Neural Networks to Small Perturbations
- arxiv url: http://arxiv.org/abs/2010.11544v1
- Date: Thu, 22 Oct 2020 09:10:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 07:16:59.681777
- Title: Stability of Algebraic Neural Networks to Small Perturbations
- Title(参考訳): 代数ニューラルネットワークの小さな摂動に対する安定性
- Authors: Alejandro Parada-Mayorga and Alejandro Ribeiro
- Abstract要約: Algebraic Neural Network (AlgNN) は、代数的信号モデルと関連する各層のカスケードで構成されている。
畳み込みという形式的な概念を用いるアーキテクチャは、シフト演算子の特定の選択を超えて、いかに安定であるかを示す。
- 参考スコア(独自算出の注目度): 179.55535781816343
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Algebraic neural networks (AlgNNs) are composed of a cascade of layers each
one associated to and algebraic signal model, and information is mapped between
layers by means of a nonlinearity function. AlgNNs provide a generalization of
neural network architectures where formal convolution operators are used, like
for instance traditional neural networks (CNNs) and graph neural networks
(GNNs). In this paper we study stability of AlgNNs on the framework of
algebraic signal processing. We show how any architecture that uses a formal
notion of convolution can be stable beyond particular choices of the shift
operator, and this stability depends on the structure of subsets of the algebra
involved in the model. We focus our attention on the case of algebras with a
single generator.
- Abstract(参考訳): 代数的ニューラルネットワーク(algnn)は、それぞれに関連付けられた層と代数的信号モデルで構成され、情報は非線形関数によって層間でマッピングされる。
AlgNNは、従来のニューラルネットワーク(CNN)やグラフニューラルネットワーク(GNN)など、フォーマルな畳み込み演算子を使用するニューラルネットワークアーキテクチャの一般化を提供する。
本稿では代数的信号処理の枠組みに基づくAlgNNの安定性について検討する。
形式的な畳み込みの概念を用いるアーキテクチャは、シフト作用素の特定の選択を超えて安定であることを示し、この安定性はモデルに関わる代数の部分集合の構造に依存する。
我々は、単一の生成元を持つ代数の場合に注意を向ける。
関連論文リスト
- Non Commutative Convolutional Signal Models in Neural Networks:
Stability to Small Deformations [111.27636893711055]
非可換畳み込みフィルタのフィルタ特性と安定性について検討する。
この結果は,グループニューラルネットワーク,マルチグラフニューラルネットワーク,四元系ニューラルネットワークに直接影響する。
論文 参考訳(メタデータ) (2023-10-05T20:27:22Z) - Universal approximation property of invertible neural networks [76.95927093274392]
Invertible Neural Network (INN) は、設計によって可逆性を持つニューラルネットワークアーキテクチャである。
その可逆性とヤコビアンのトラクタビリティのおかげで、IGNは確率的モデリング、生成的モデリング、表現的学習など、さまざまな機械学習応用がある。
論文 参考訳(メタデータ) (2022-04-15T10:45:26Z) - Random Graph-Based Neuromorphic Learning with a Layer-Weaken Structure [4.477401614534202]
我々は,ランダムグラフ理論を実践的な意味でNNモデルに変換し,各ニューロンの入出力関係を明らかにする。
この低演算コストアプローチでは、ニューロンはいくつかのグループに割り当てられ、接続関係はそれらに属するランダムグラフの一様表現とみなすことができる。
本稿では,複数のRGNN間の情報インタラクションを含む共同分類機構を開発し,教師付き学習における3つのベンチマークタスクの大幅な性能向上を実現する。
論文 参考訳(メタデータ) (2021-11-17T03:37:06Z) - Convolutional Filtering and Neural Networks with Non Commutative
Algebras [153.20329791008095]
本研究では,非可換畳み込みニューラルネットワークの一般化について検討する。
非可換畳み込み構造は作用素空間上の変形に対して安定であることを示す。
論文 参考訳(メタデータ) (2021-08-23T04:22:58Z) - Algebraic Neural Networks: Stability to Deformations [179.55535781816343]
可換代数を用いた代数ニューラルネットワーク(AlgNN)について検討する。
AlgNNはユークリッド畳み込みニューラルネットワーク、グラフニューラルネットワーク、グループニューラルネットワークなどの多様なアーキテクチャを統合する。
論文 参考訳(メタデータ) (2020-09-03T03:41:38Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。