論文の概要: Stability Analysis of Equivariant Convolutional Representations Through The Lens of Equivariant Multi-layered CKNs
- arxiv url: http://arxiv.org/abs/2408.04277v1
- Date: Thu, 8 Aug 2024 07:31:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-09 16:17:56.691056
- Title: Stability Analysis of Equivariant Convolutional Representations Through The Lens of Equivariant Multi-layered CKNs
- Title(参考訳): 等変多層CKNレンズによる等変畳み込み表現の安定性解析
- Authors: Soutrik Roy Chowdhury,
- Abstract要約: 我々は、グループ同変カーネルネットワーク(CKN)を構築し、理論的に解析する。
本研究では, 微分同相作用下でのそのような同相CNNの安定性解析について検討する。
目標は、再現されたカーネルヒルベルト空間(RKHS)のレンズを通して、同値CNNの帰納バイアスの幾何学を分析することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we construct and theoretically analyse group equivariant convolutional kernel networks (CKNs) which are useful in understanding the geometry of (equivariant) CNNs through the lens of reproducing kernel Hilbert spaces (RKHSs). We then proceed to study the stability analysis of such equiv-CKNs under the action of diffeomorphism and draw a connection with equiv-CNNs, where the goal is to analyse the geometry of inductive biases of equiv-CNNs through the lens of reproducing kernel Hilbert spaces (RKHSs). Traditional deep learning architectures, including CNNs, trained with sophisticated optimization algorithms is vulnerable to perturbations, including `adversarial examples'. Understanding the RKHS norm of such models through CKNs is useful in designing the appropriate architecture and can be useful in designing robust equivariant representation learning models.
- Abstract(参考訳): 本稿では、(同変)CNNの幾何学を再現カーネルヒルベルト空間(RKHS)のレンズを通して理解するのに有用な群同変畳み込みカーネルネットワーク(CKN)を構築し、理論的に解析する。
次に、微分同相の作用下でのそのような同相CKNの安定性解析の研究を進め、同相CNNとの接続を図り、そこではカーネルヒルベルト空間(RKHS)を再現するレンズを通して同相CNNの帰納バイアスの幾何学を解析することを目的とする。
高度な最適化アルゴリズムでトレーニングされたCNNを含む従来のディープラーニングアーキテクチャは、‘逆例’など、摂動に弱い。
CKNを通してそのようなモデルのRKHS規範を理解することは、適切なアーキテクチャを設計するのに有用であり、ロバストな同変表現学習モデルの設計に有用である。
関連論文リスト
- Convolutional Filtering with RKHS Algebras [110.06688302593349]
我々は、Kernel Hilbert Spaces(RKHS)の再生のための畳み込み信号処理とニューラルネットワークの理論を開発する。
任意の RKHS が複数の代数的畳み込みモデルの形式的定義を可能にすることを示す。
本研究では,無人航空機による実測値から無線通信を予測できる実データに関する数値実験について述べる。
論文 参考訳(メタデータ) (2024-11-02T18:53:44Z) - On the Convergence Analysis of Over-Parameterized Variational Autoencoders: A Neural Tangent Kernel Perspective [7.580900499231056]
変分自動エンコーダ(VAE)は、生成タスクの強力な確率モデルとして登場した。
本稿では, 軽微な仮定の下でのVAEの数学的証明について述べる。
また、過剰に最適化されたSNNが直面する最適化問題と、カーネルリッジ(KRR)問題との新たな接続を確立する。
論文 参考訳(メタデータ) (2024-09-09T06:10:31Z) - E(n) Equivariant Topological Neural Networks [10.603892843083173]
グラフニューラルネットワークはペアインタラクションのモデリングに優れていますが、高階インタラクションや機能に柔軟に対応できません。
トポロジカルディープラーニング(TDL)がこの問題に対処するための有望なツールとして最近登場した。
本稿では,E(n)-同変トポロジカルニューラルネットワーク(ETNN)を紹介する。
ETNNは回転、反射、翻訳を尊重しながら幾何学的ノードの特徴を取り入れている。
論文 参考訳(メタデータ) (2024-05-24T10:55:38Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - SO(2) and O(2) Equivariance in Image Recognition with
Bessel-Convolutional Neural Networks [63.24965775030674]
この研究はベッセル畳み込みニューラルネットワーク(B-CNN)の開発を示す
B-CNNは、ベッセル関数に基づく特定の分解を利用して、画像とフィルタの間のキー操作を変更する。
他の手法と比較して,B-CNNの性能を評価するために検討を行った。
論文 参考訳(メタデータ) (2023-04-18T18:06:35Z) - Geometrical aspects of lattice gauge equivariant convolutional neural
networks [0.0]
格子ゲージ同変畳み込みニューラルネットワーク(L-CNN)は、非アベリア格子ゲージ理論に適用可能な畳み込みニューラルネットワークの枠組みである。
論文 参考訳(メタデータ) (2023-03-20T20:49:08Z) - Theory for Equivariant Quantum Neural Networks [0.0]
本質的に任意の対称性群に対して等変量子ニューラルネットワーク(EQNN)を設計するための理論的枠組みを提案する。
私たちのフレームワークは、量子機械学習のほぼすべての領域に簡単に適用できます。
論文 参考訳(メタデータ) (2022-10-16T15:42:21Z) - Orthogonal Stochastic Configuration Networks with Adaptive Construction
Parameter for Data Analytics [6.940097162264939]
ランダム性により、SCNは冗長で品質の低い近似線形相関ノードを生成する可能性が高まる。
機械学習の基本原理、すなわち、パラメータが少ないモデルでは、一般化が向上する。
本稿では,ネットワーク構造低減のために,低品質な隠れノードをフィルタする直交SCN(OSCN)を提案する。
論文 参考訳(メタデータ) (2022-05-26T07:07:26Z) - Universal approximation property of invertible neural networks [76.95927093274392]
Invertible Neural Network (INN) は、設計によって可逆性を持つニューラルネットワークアーキテクチャである。
その可逆性とヤコビアンのトラクタビリティのおかげで、IGNは確率的モデリング、生成的モデリング、表現的学習など、さまざまな機械学習応用がある。
論文 参考訳(メタデータ) (2022-04-15T10:45:26Z) - Stability of Algebraic Neural Networks to Small Perturbations [179.55535781816343]
Algebraic Neural Network (AlgNN) は、代数的信号モデルと関連する各層のカスケードで構成されている。
畳み込みという形式的な概念を用いるアーキテクチャは、シフト演算子の特定の選択を超えて、いかに安定であるかを示す。
論文 参考訳(メタデータ) (2020-10-22T09:10:16Z) - Lorentz Group Equivariant Neural Network for Particle Physics [58.56031187968692]
ローレンツ群の下での変換に関して完全に同値なニューラルネットワークアーキテクチャを提案する。
素粒子物理学における分類問題に対して、そのような同変構造は、比較的学習可能なパラメータの少ない非常に単純なモデルをもたらすことを実証する。
論文 参考訳(メタデータ) (2020-06-08T17:54:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。