論文の概要: Adaptive Canonicalization with Application to Invariant Anisotropic Geometric Networks
- arxiv url: http://arxiv.org/abs/2509.24886v1
- Date: Mon, 29 Sep 2025 14:59:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:20.069293
- Title: Adaptive Canonicalization with Application to Invariant Anisotropic Geometric Networks
- Title(参考訳): 適応正準化と不変異方性幾何ネットワークへの応用
- Authors: Ya-Wei Eileen Lin, Ron Levie,
- Abstract要約: ニューラルネットワークにおいて対称性を強制する一般的なフレームワークである強調正準化を導入する。
この構造は、普遍近似特性を持つ連続的および対称性を反映するモデルをもたらすことを証明している。
i)スペクトルグラフニューラルネットワークにおける固有ベイシスの解法と(ii)点雲における回転対称性の扱いの2つの方法を提案する。
- 参考スコア(独自算出の注目度): 22.039672459015453
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Canonicalization is a widely used strategy in equivariant machine learning, enforcing symmetry in neural networks by mapping each input to a standard form. Yet, it often introduces discontinuities that can affect stability during training, limit generalization, and complicate universal approximation theorems. In this paper, we address this by introducing \emph{adaptive canonicalization}, a general framework in which the canonicalization depends both on the input and the network. Specifically, we present the adaptive canonicalization based on prior maximization, where the standard form of the input is chosen to maximize the predictive confidence of the network. We prove that this construction yields continuous and symmetry-respecting models that admit universal approximation properties. We propose two applications of our setting: (i) resolving eigenbasis ambiguities in spectral graph neural networks, and (ii) handling rotational symmetries in point clouds. We empirically validate our methods on molecular and protein classification, as well as point cloud classification tasks. Our adaptive canonicalization outperforms the three other common solutions to equivariant machine learning: data augmentation, standard canonicalization, and equivariant architectures.
- Abstract(参考訳): 正準化は同変機械学習において広く用いられる戦略であり、各入力を標準形式にマッピングすることでニューラルネットワークの対称性を強制する。
しかし、訓練中の安定性に影響を与え、一般化を制限し、普遍近似定理を複雑化する不連続性をしばしば導入する。
本稿では,入力とネットワークの両方に依存する一般的なフレームワークである 'emph{adaptive canonicalization} を導入することで,この問題に対処する。
具体的には、入力の標準形式を選択してネットワークの予測信頼性を最大化する事前最大化に基づく適応正準化を提案する。
この構造は、普遍近似特性を持つ連続的および対称性を反映するモデルをもたらすことを証明している。
設定の2つの適用法を提案する。
一 スペクトルグラフニューラルネットワークにおける固有ベイズ曖昧性の解消及び
(II)点雲における回転対称性を扱うこと。
分子とタンパク質の分類と点雲の分類の手法を実証的に検証した。
我々の適応正準化は、データ拡張、標準正準化、等変アーキテクチャの3つの共通解よりも優れている。
関連論文リスト
- Improving Equivariant Networks with Probabilistic Symmetry Breaking [9.164167226137664]
同変ネットワークは既知の対称性をニューラルネットワークにエンコードし、しばしば一般化を強化する。
これは(1)自己対称性が共通な領域での予測タスク、(2)高対称性の潜在空間から再構成するために対称性を破らなければならない生成モデルの両方に重要な問題を引き起こす。
このような分布を表すのに十分な条件を確立する新しい理論結果を示す。
論文 参考訳(メタデータ) (2025-03-27T21:04:49Z) - Relative Representations: Topological and Geometric Perspectives [53.88896255693922]
相対表現はゼロショットモデルの縫合に対する確立されたアプローチである。
相対変換において正規化手順を導入し、非等方的再スケーリングや置換に不変となる。
第二に、クラス内のクラスタリングを促進するトポロジカル正規化損失である、微調整された相対表現におけるトポロジカルデシフィケーションの展開を提案する。
論文 参考訳(メタデータ) (2024-09-17T08:09:22Z) - Metric Convolutions: A Unifying Theory to Adaptive Image Convolutions [3.481985817302898]
メトリック畳み込み(Metric Convolutions)は、明示的な信号依存メトリクスから単位球をサンプリングする新しいアプローチである。
このフレームワークは、入力画像またはニューラルネットワークの深い特徴に適用される既存の畳み込みを直接置き換えることができる。
提案手法は,標準的な分類タスクにおける競合性能を示す。
論文 参考訳(メタデータ) (2024-06-08T08:41:12Z) - A Canonicalization Perspective on Invariant and Equivariant Learning [54.44572887716977]
フレームの設計について,本質的で完全な視点を提供する正準化の視点を導入する。
フレームと標準形式の間には固有の関係があることが示される。
既存の手法よりも厳密な固有ベクトルのための新しいフレームを設計する。
論文 参考訳(メタデータ) (2024-05-28T17:22:15Z) - Orthogonal Transforms in Neural Networks Amount to Effective
Regularization [0.0]
非線形システム同定におけるニューラルネットワークの適用について考察する。
そのような構造が普遍近似であることを示す。
特に、フーリエ変換を用いたそのような構造は直交サポートのない同値モデルよりも優れていることを実証的に示す。
論文 参考訳(メタデータ) (2023-05-10T17:52:33Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - Generalization capabilities of neural networks in lattice applications [0.0]
翻訳等変ニューラルネットワークを用いた非同変ニューラルネットワークの利点について検討する。
我々の最良の同変アーキテクチャは、その非同変アーキテクチャよりも大幅に性能を向上し、一般化できることが示される。
論文 参考訳(メタデータ) (2021-12-23T11:48:06Z) - Stochastic batch size for adaptive regularization in deep network
optimization [63.68104397173262]
ディープラーニングフレームワークにおける機械学習問題に適用可能な適応正規化を取り入れた一階最適化アルゴリズムを提案する。
一般的なベンチマークデータセットに適用した従来のネットワークモデルに基づく画像分類タスクを用いて,提案アルゴリズムの有効性を実証的に実証した。
論文 参考訳(メタデータ) (2020-04-14T07:54:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。