論文の概要: Stability Analysis of Equivariant Convolutional Representations Through The Lens of Equivariant Multi-layered CKNs
- arxiv url: http://arxiv.org/abs/2408.04277v1
- Date: Thu, 8 Aug 2024 07:31:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-08-09 16:17:56.691056
- Title: Stability Analysis of Equivariant Convolutional Representations Through The Lens of Equivariant Multi-layered CKNs
- Title(参考訳): 等変多層CKNレンズによる等変畳み込み表現の安定性解析
- Authors: Soutrik Roy Chowdhury,
- Abstract要約: 我々は、グループ同変カーネルネットワーク(CKN)を構築し、理論的に解析する。
本研究では, 微分同相作用下でのそのような同相CNNの安定性解析について検討する。
目標は、再現されたカーネルヒルベルト空間(RKHS)のレンズを通して、同値CNNの帰納バイアスの幾何学を分析することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we construct and theoretically analyse group equivariant convolutional kernel networks (CKNs) which are useful in understanding the geometry of (equivariant) CNNs through the lens of reproducing kernel Hilbert spaces (RKHSs). We then proceed to study the stability analysis of such equiv-CKNs under the action of diffeomorphism and draw a connection with equiv-CNNs, where the goal is to analyse the geometry of inductive biases of equiv-CNNs through the lens of reproducing kernel Hilbert spaces (RKHSs). Traditional deep learning architectures, including CNNs, trained with sophisticated optimization algorithms is vulnerable to perturbations, including `adversarial examples'. Understanding the RKHS norm of such models through CKNs is useful in designing the appropriate architecture and can be useful in designing robust equivariant representation learning models.
- Abstract(参考訳): 本稿では、(同変)CNNの幾何学を再現カーネルヒルベルト空間(RKHS)のレンズを通して理解するのに有用な群同変畳み込みカーネルネットワーク(CKN)を構築し、理論的に解析する。
次に、微分同相の作用下でのそのような同相CKNの安定性解析の研究を進め、同相CNNとの接続を図り、そこではカーネルヒルベルト空間(RKHS)を再現するレンズを通して同相CNNの帰納バイアスの幾何学を解析することを目的とする。
高度な最適化アルゴリズムでトレーニングされたCNNを含む従来のディープラーニングアーキテクチャは、‘逆例’など、摂動に弱い。
CKNを通してそのようなモデルのRKHS規範を理解することは、適切なアーキテクチャを設計するのに有用であり、ロバストな同変表現学習モデルの設計に有用である。
関連論文リスト
- SPD Learning for Covariance-Based Neuroimaging Analysis: Perspectives, Methods, and Challenges [41.955864444491965]
ニューロイメージングは、モダリティを越えた接続パターンと機能的アーキテクチャを定量化することによって、脳活動の特徴付けのための重要なフレームワークを提供する。
現代の機械学習は、これらのデータセットを通してニューラル処理機構の理解を大幅に進歩させてきた。
本稿では、共分散に基づくニューロイメージングデータに対する機械学習アプローチに焦点を当て、チャネル間関係を符号化したフルランク条件下での対称正定値行列について述べる。
論文 参考訳(メタデータ) (2025-04-26T10:05:04Z) - Geometry aware inference of steady state PDEs using Equivariant Neural Fields representations [0.0]
定常部分微分方程式を予測するエンコーダデコーダである enf2enf を導入する。
提案手法は、リアルタイム推論とゼロショット超解像をサポートし、低分解能メッシュの効率的なトレーニングを可能にする。
論文 参考訳(メタデータ) (2025-04-24T08:30:32Z) - Kernel Stochastic Configuration Networks for Nonlinear Regression [3.8719670789415925]
本稿では,コンフィグレーションネットワーク(SCN)のカーネルバージョンについて述べる。
モデルの表現学習能力と性能安定性を高めることを目的としている。
再構成空間におけるデータ分布は回帰解法に好適であることが示されている。
論文 参考訳(メタデータ) (2024-12-08T07:54:04Z) - Convolutional Filtering with RKHS Algebras [110.06688302593349]
我々は、Kernel Hilbert Spaces(RKHS)の再生のための畳み込み信号処理とニューラルネットワークの理論を開発する。
任意の RKHS が複数の代数的畳み込みモデルの形式的定義を可能にすることを示す。
本研究では,無人航空機による実測値から無線通信を予測できる実データに関する数値実験について述べる。
論文 参考訳(メタデータ) (2024-11-02T18:53:44Z) - On the Convergence Analysis of Over-Parameterized Variational Autoencoders: A Neural Tangent Kernel Perspective [7.580900499231056]
変分自動エンコーダ(VAE)は、生成タスクの強力な確率モデルとして登場した。
本稿では, 軽微な仮定の下でのVAEの数学的証明について述べる。
また、過剰に最適化されたSNNが直面する最適化問題と、カーネルリッジ(KRR)問題との新たな接続を確立する。
論文 参考訳(メタデータ) (2024-09-09T06:10:31Z) - E(n) Equivariant Topological Neural Networks [10.603892843083173]
グラフニューラルネットワークはペアインタラクションのモデリングに優れていますが、高階インタラクションや機能に柔軟に対応できません。
トポロジカルディープラーニング(TDL)がこの問題に対処するための有望なツールとして最近登場した。
本稿では,E(n)-同変トポロジカルニューラルネットワーク(ETNN)を紹介する。
ETNNは回転、反射、翻訳を尊重しながら幾何学的ノードの特徴を取り入れている。
論文 参考訳(メタデータ) (2024-05-24T10:55:38Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - SO(2) and O(2) Equivariance in Image Recognition with
Bessel-Convolutional Neural Networks [63.24965775030674]
この研究はベッセル畳み込みニューラルネットワーク(B-CNN)の開発を示す
B-CNNは、ベッセル関数に基づく特定の分解を利用して、画像とフィルタの間のキー操作を変更する。
他の手法と比較して,B-CNNの性能を評価するために検討を行った。
論文 参考訳(メタデータ) (2023-04-18T18:06:35Z) - Geometrical aspects of lattice gauge equivariant convolutional neural
networks [0.0]
格子ゲージ同変畳み込みニューラルネットワーク(L-CNN)は、非アベリア格子ゲージ理論に適用可能な畳み込みニューラルネットワークの枠組みである。
論文 参考訳(メタデータ) (2023-03-20T20:49:08Z) - Theory for Equivariant Quantum Neural Networks [0.0]
本質的に任意の対称性群に対して等変量子ニューラルネットワーク(EQNN)を設計するための理論的枠組みを提案する。
私たちのフレームワークは、量子機械学習のほぼすべての領域に簡単に適用できます。
論文 参考訳(メタデータ) (2022-10-16T15:42:21Z) - Orthogonal Stochastic Configuration Networks with Adaptive Construction
Parameter for Data Analytics [6.940097162264939]
ランダム性により、SCNは冗長で品質の低い近似線形相関ノードを生成する可能性が高まる。
機械学習の基本原理、すなわち、パラメータが少ないモデルでは、一般化が向上する。
本稿では,ネットワーク構造低減のために,低品質な隠れノードをフィルタする直交SCN(OSCN)を提案する。
論文 参考訳(メタデータ) (2022-05-26T07:07:26Z) - Universal approximation property of invertible neural networks [76.95927093274392]
Invertible Neural Network (INN) は、設計によって可逆性を持つニューラルネットワークアーキテクチャである。
その可逆性とヤコビアンのトラクタビリティのおかげで、IGNは確率的モデリング、生成的モデリング、表現的学習など、さまざまな機械学習応用がある。
論文 参考訳(メタデータ) (2022-04-15T10:45:26Z) - Stability of Algebraic Neural Networks to Small Perturbations [179.55535781816343]
Algebraic Neural Network (AlgNN) は、代数的信号モデルと関連する各層のカスケードで構成されている。
畳み込みという形式的な概念を用いるアーキテクチャは、シフト演算子の特定の選択を超えて、いかに安定であるかを示す。
論文 参考訳(メタデータ) (2020-10-22T09:10:16Z) - Lorentz Group Equivariant Neural Network for Particle Physics [58.56031187968692]
ローレンツ群の下での変換に関して完全に同値なニューラルネットワークアーキテクチャを提案する。
素粒子物理学における分類問題に対して、そのような同変構造は、比較的学習可能なパラメータの少ない非常に単純なモデルをもたらすことを実証する。
論文 参考訳(メタデータ) (2020-06-08T17:54:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。