論文の概要: Bispectral Neural Networks
- arxiv url: http://arxiv.org/abs/2209.03416v1
- Date: Wed, 7 Sep 2022 18:34:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-09 13:12:37.790004
- Title: Bispectral Neural Networks
- Title(参考訳): バイスペクトルニューラルネットワーク
- Authors: Sophia Sanborn, Christian Shewmake, Bruno Olshausen, Christopher
Hillar
- Abstract要約: 本稿では,BNN(Bispectral Neural Networks)という新しい機械学習アーキテクチャを提案する。
BNNはデータの任意の可換群構造を発見でき、訓練されたモデルはこれらの群の既約表現を学習する。
特筆すべきは、訓練されたネットワークはこれらの群上の双スペクトルを近似することを学び、したがって解析対象の堅牢性、完全性、および一般性を保持することである。
- 参考スコア(独自算出の注目度): 1.0323063834827415
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present a novel machine learning architecture, Bispectral Neural Networks
(BNNs), for learning representations of data that are invariant to the actions
of groups on the space over which a signal is defined. The model incorporates
the ansatz of the bispectrum, an analytically defined group invariant that is
complete--that is, it preserves all signal structure while removing only the
variation due to group actions. Here, we demonstrate that BNNs are able to
discover arbitrary commutative group structure in data, with the trained models
learning the irreducible representations of the groups, which allows for the
recovery of the group Cayley tables. Remarkably, trained networks learn to
approximate bispectra on these groups, and thus possess the robustness,
completeness, and generality of the analytical object.
- Abstract(参考訳): 本稿では,信号が定義される空間上のグループの行動に不変なデータの表現を学習するための,新しい機械学習アーキテクチャであるBispectral Neural Networks(BNN)を提案する。
このモデルは、解析的に定義された群不変量であるbispectrumのアンサッツ(英語版)、すなわち、群作用による変動のみを取り除きながら、全ての信号構造を保存できる。
本稿では,bnnがデータ中の任意の可換群構造を探索し,学習したモデルが群の既約表現を学習することで,cayley表の復元を可能にすることを実証する。
注目すべきことに、訓練されたネットワークはこれらの群上の双スペクトルを近似することを学び、したがって解析対象の堅牢性、完全性、および一般性を持つ。
関連論文リスト
- Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - A Characterization Theorem for Equivariant Networks with Point-wise
Activations [13.00676132572457]
回転同変ネットワークは、連結コンパクト群に対して同変である任意のネットワークに対してのみ不変であることを示す。
本稿では, 畳み込み可能な畳み込み型ニューラルネットワークの特徴空間が, 自明な表現であることを示す。
論文 参考訳(メタデータ) (2024-01-17T14:30:46Z) - Non Commutative Convolutional Signal Models in Neural Networks:
Stability to Small Deformations [111.27636893711055]
非可換畳み込みフィルタのフィルタ特性と安定性について検討する。
この結果は,グループニューラルネットワーク,マルチグラフニューラルネットワーク,四元系ニューラルネットワークに直接影響する。
論文 参考訳(メタデータ) (2023-10-05T20:27:22Z) - Towards Rigorous Understanding of Neural Networks via
Semantics-preserving Transformations [0.0]
本稿では,Rectifier Neural Networksの正確かつグローバルな検証と説明に対するアプローチを提案する。
我々のアプローチの鍵は、意味論的に等価なTyped Affine Decision Structureの構築を可能にする、これらのネットワークのシンボリック実行である。
論文 参考訳(メタデータ) (2023-01-19T11:35:07Z) - Equivariant and Steerable Neural Networks: A review with special
emphasis on the symmetric group [0.76146285961466]
畳み込みニューラルネットワークはコンピュータビジョンとナトリウム言語処理に革命をもたらした。
その効率性は、完全に接続されたニューラルネットワークと比較して、アーキテクチャに起源を持つ。
等変層やフィルタバンク,カプセルの活性化,グループプールなどのネットワークアーキテクチャを概観する。
論文 参考訳(メタデータ) (2023-01-08T11:05:31Z) - Equivariant Transduction through Invariant Alignment [71.45263447328374]
グループ内ハードアライメント機構を組み込んだ,新しいグループ同変アーキテクチャを提案する。
我々のネットワーク構造は、既存のグループ同変アプローチよりも強い同変特性を発達させることができる。
また、SCANタスクにおいて、従来のグループ同変ネットワークよりも経験的に優れていたことが判明した。
論文 参考訳(メタデータ) (2022-09-22T11:19:45Z) - Topographic VAEs learn Equivariant Capsules [84.33745072274942]
本稿では, 地理的に整理された潜伏変数を用いた深部生成モデルを効率的に学習するための新しい手法であるTopographic VAEを紹介する。
このようなモデルでは,MNIST上での桁数クラス,幅,スタイルなどの健全な特徴に応じて,その活性化を組織化することが実際に学べることが示される。
我々は、既存の群同変ニューラルネットワークの能力を拡張して、複素変換に近似した同値性を示す。
論文 参考訳(メタデータ) (2021-09-03T09:25:57Z) - Convolutional Filtering and Neural Networks with Non Commutative
Algebras [153.20329791008095]
本研究では,非可換畳み込みニューラルネットワークの一般化について検討する。
非可換畳み込み構造は作用素空間上の変形に対して安定であることを示す。
論文 参考訳(メタデータ) (2021-08-23T04:22:58Z) - Stability of Algebraic Neural Networks to Small Perturbations [179.55535781816343]
Algebraic Neural Network (AlgNN) は、代数的信号モデルと関連する各層のカスケードで構成されている。
畳み込みという形式的な概念を用いるアーキテクチャは、シフト演算子の特定の選択を超えて、いかに安定であるかを示す。
論文 参考訳(メタデータ) (2020-10-22T09:10:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。