論文の概要: Neural Fourier Transform: A General Approach to Equivariant
Representation Learning
- arxiv url: http://arxiv.org/abs/2305.18484v1
- Date: Mon, 29 May 2023 12:06:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 20:26:17.440272
- Title: Neural Fourier Transform: A General Approach to Equivariant
Representation Learning
- Title(参考訳): ニューラルフーリエ変換:等変表現学習への一般的なアプローチ
- Authors: Masanori Koyama and Kenji Fukumizu and Kohei Hayashi and Takeru Miyato
- Abstract要約: 本稿では,その集団がデータに対してどのように振る舞うかを明確に知ることなく,その集団の潜在線形作用を学習する一般的な枠組みを提案する。
等式学習においてユビキタスに仮定された線形同変関数の存在は,データ空間上の群不変カーネルの存在と等価であることを示す。
- 参考スコア(独自算出の注目度): 32.62579746273788
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Symmetry learning has proven to be an effective approach for extracting the
hidden structure of data, with the concept of equivariance relation playing the
central role. However, most of the current studies are built on architectural
theory and corresponding assumptions on the form of data. We propose Neural
Fourier Transform (NFT), a general framework of learning the latent linear
action of the group without assuming explicit knowledge of how the group acts
on data. We present the theoretical foundations of NFT and show that the
existence of a linear equivariant feature, which has been assumed ubiquitously
in equivariance learning, is equivalent to the existence of a group invariant
kernel on the dataspace. We also provide experimental results to demonstrate
the application of NFT in typical scenarios with varying levels of knowledge
about the acting group.
- Abstract(参考訳): 対称性学習はデータの隠れ構造を抽出するための効果的なアプローチであることが証明されており、その中心的な役割は等分散関係である。
しかし、現在の研究のほとんどは、アーキテクチャ理論とデータ形式に関する対応する仮定に基づいている。
ニューラルフーリエ変換 (neural fourier transform, nft) は, 集団がデータに対してどのように作用するかを明示的に知ることなく, 集団の潜在線形作用を学習する一般的なフレームワークである。
NFTの理論的基礎を述べるとともに、同値学習においてユビキタスに仮定された線形同変特徴の存在は、データ空間上の群不変カーネルの存在と等価であることを示す。
また,動作群に関する知識のレベルが異なる典型的シナリオにおけるNFTの適用を実証するための実験結果も提供する。
関連論文リスト
- Cross-Entropy Is All You Need To Invert the Data Generating Process [29.94396019742267]
経験的現象は、教師付きモデルが線形な方法で変化の解釈可能な要因を学習できることを示唆している。
近年の自己教師型学習の進歩により,データ生成過程を反転させることで潜在構造を復元できることが示されている。
標準分類タスクにおいても,モデルが線形変換までの変動の基底構造因子の表現を学習することが証明された。
論文 参考訳(メタデータ) (2024-10-29T09:03:57Z) - DIFFormer: Scalable (Graph) Transformers Induced by Energy Constrained
Diffusion [66.21290235237808]
本稿では,データセットからのインスタンスのバッチを進化状態にエンコードするエネルギー制約拡散モデルを提案する。
任意のインスタンス対間の対拡散強度に対する閉形式最適推定を示唆する厳密な理論を提供する。
各種タスクにおいて優れた性能を有する汎用エンコーダバックボーンとして,本モデルの適用性を示す実験を行った。
論文 参考訳(メタデータ) (2023-01-23T15:18:54Z) - Equivariant Representation Learning in the Presence of Stabilizers [13.11108596589607]
EquIN は自由でない群作用、すなわち非自明な対称性によってデータを安定化する群作用に適している。
EquIN は理論上、群論の軌道安定化定理に基礎を置いている。
論文 参考訳(メタデータ) (2023-01-12T11:43:26Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - Equivariant Representation Learning via Class-Pose Decomposition [17.032782230538388]
データの対称性に同値な表現を学習するための一般的な方法を提案する。
コンポーネントは、それぞれ固有のデータクラスとポーズに意味的に対応します。
その結果,表現はデータの幾何を捉え,他の同変表現学習フレームワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-07-07T06:55:52Z) - Unified Fourier-based Kernel and Nonlinearity Design for Equivariant
Networks on Homogeneous Spaces [52.424621227687894]
等質空間上の群同変ネットワークに対する統一的枠組みを導入する。
昇降した特徴場のフーリエ係数の空間性を利用する。
安定化部分群におけるフーリエ係数としての特徴を取り扱う他の方法が、我々のアクティベーションの特別な場合であることを示す。
論文 参考訳(メタデータ) (2022-06-16T17:59:01Z) - Measuring dissimilarity with diffeomorphism invariance [94.02751799024684]
DID(DID)は、幅広いデータ空間に適用可能なペアワイズな相似性尺度である。
我々は、DIDが理論的研究と実用に関係のある特性を享受していることを証明する。
論文 参考訳(メタデータ) (2022-02-11T13:51:30Z) - Deformation Robust Roto-Scale-Translation Equivariant CNNs [10.44236628142169]
グループ同変畳み込みニューラルネットワーク(G-CNN)は,固有対称性を持つ一般化性能を著しく向上させる。
G-CNNの一般的な理論と実践的実装は、回転またはスケーリング変換の下での平面画像に対して研究されている。
論文 参考訳(メタデータ) (2021-11-22T03:58:24Z) - Commutative Lie Group VAE for Disentanglement Learning [96.32813624341833]
本研究では,データに表される因子の変動を同変的に反映する基盤構造を見いだすこととして,非絡み合い学習を考察する。
グループベースの非絡み合い学習を実現するために、Communative Lie Group VAEというシンプルなモデルが導入された。
実験により,本モデルでは,教師なしの非絡み合い表現を効果的に学習し,余分な制約を伴わずに最先端のパフォーマンスを達成できることが示されている。
論文 参考訳(メタデータ) (2021-06-07T07:03:14Z) - LieTransformer: Equivariant self-attention for Lie Groups [49.9625160479096]
群等価ニューラルネットワークは群不変ニューラルネットワークの構成要素として用いられる。
我々は、文学の範囲を、ディープラーニングモデルの顕著な構築ブロックとして現れつつある自己注意にまで広げる。
任意のリー群とその離散部分群に同値なリー自己結合層からなる構造であるリー変換器を提案する。
論文 参考訳(メタデータ) (2020-12-20T11:02:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。