論文の概要: Diffeomorphism-Equivariant Neural Networks
- arxiv url: http://arxiv.org/abs/2602.06695v1
- Date: Fri, 06 Feb 2026 13:31:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.409775
- Title: Diffeomorphism-Equivariant Neural Networks
- Title(参考訳): 拡散同相同変ニューラルネットワーク
- Authors: Josephine Elisabeth Oettinger, Zakhar Shumaylov, Johannes Bostelmann, Jan Lellmann, Carola-Bibiane Schönlieb,
- Abstract要約: 本稿では,エネルギーをベースとした正準化により,事前学習ニューラルネットワークの微分同相性を誘導する手法を提案する。
セグメンテーションと分類タスクに関する実証的な結果は、我々のアプローチが、広範囲なデータ拡張や再学習に頼ることなく、等式を近似し、未知の変換に一般化することを確認する。
- 参考スコア(独自算出の注目度): 20.100205038541695
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Incorporating group symmetries via equivariance into neural networks has emerged as a robust approach for overcoming the efficiency and data demands of modern deep learning. While most existing approaches, such as group convolutions and averaging-based methods, focus on compact, finite, or low-dimensional groups with linear actions, this work explores how equivariance can be extended to infinite-dimensional groups. We propose a strategy designed to induce diffeomorphism equivariance in pre-trained neural networks via energy-based canonicalisation. Formulating equivariance as an optimisation problem allows us to access the rich toolbox of already established differentiable image registration methods. Empirical results on segmentation and classification tasks confirm that our approach achieves approximate equivariance and generalises to unseen transformations without relying on extensive data augmentation or retraining.
- Abstract(参考訳): ニューラルネットワークに同値なグループ対称性を組み込むことは、現代のディープラーニングの効率性とデータ要求を克服するための堅牢なアプローチとして現れている。
群畳み込みや平均化法のような既存のアプローチは、線型作用を持つコンパクト群、有限群、あるいは低次元群に焦点をあてるが、この研究は、等式が無限次元群にどのように拡張できるかを探求する。
本稿では,エネルギーをベースとした正準化により,事前学習ニューラルネットワークの微分同相性を誘導する手法を提案する。
最適化問題としての定式化等式は、既に確立された微分可能画像登録法の豊富なツールボックスにアクセスすることができる。
セグメンテーションと分類タスクに関する実証的な結果は、我々の手法が、広範囲なデータ拡張や再学習に頼ることなく、近似等式を達成し、未知の変換に一般化することを確認する。
関連論文リスト
- Approximate equivariance via projection-based regularisation [1.5755923640031846]
非同変モデルは、実行時のパフォーマンスと不完全な対称性のため、再び注目を集めている。
これは、対称性の尊重とデータ分布の適合の間に中間点を打つ、ほぼ同変モデルの開発を動機付けている。
本研究では,空間領域とスペクトル領域の両方において,非等分散ペナルティを正確に,効率的に計算するための数学的枠組みを提案する。
論文 参考訳(メタデータ) (2026-01-08T15:35:42Z) - Parameter-free approximate equivariance for tasks with finite group symmetry [15.964726158869777]
等価ニューラルネットワークは、グループアクションを通じて対称性を取り入れ、様々なタスクのパフォーマンスを改善するために誘導バイアスとしてそれらを埋め込む。
損失関数における追加項として、潜在表現における有限群に対して近似同値を課す単純なゼロパラメータアプローチを提案する。
提案手法を3つのデータセットにベンチマークし,既存の同変手法と比較した結果,パラメータのごく一部に対して類似あるいは良好な性能が得られた。
論文 参考訳(メタデータ) (2025-06-09T21:23:26Z) - Improving Equivariant Model Training via Constraint Relaxation [31.507956579770088]
そこで本研究では,トレーニング中の厳密な均衡制約を緩和することにより,そのようなモデルの最適化を改善する新しい枠組みを提案する。
本研究では,様々な最先端ネットワークアーキテクチャの実験結果を提供し,このトレーニングフレームワークが一般化性能を向上した同変モデルを実現する方法を示す。
論文 参考訳(メタデータ) (2024-08-23T17:35:08Z) - On the Implicit Bias of Linear Equivariant Steerable Networks [9.539074889921935]
群不変二元分類における線形同変ステアブルネットワーク上の勾配流の暗黙バイアスについて検討する。
入力表現のユニタリな仮定の下では、ステアブルネットワークとデータ拡張の等価性を確立する。
論文 参考訳(メタデータ) (2023-03-07T19:37:35Z) - Architectural Optimization over Subgroups for Equivariant Neural
Networks [0.0]
準同値緩和同型と$[G]$-mixed同変層を提案し、部分群上の同値制約で演算する。
進化的および微分可能なニューラルアーキテクチャ探索(NAS)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-11T14:37:29Z) - Topographic VAEs learn Equivariant Capsules [84.33745072274942]
本稿では, 地理的に整理された潜伏変数を用いた深部生成モデルを効率的に学習するための新しい手法であるTopographic VAEを紹介する。
このようなモデルでは,MNIST上での桁数クラス,幅,スタイルなどの健全な特徴に応じて,その活性化を組織化することが実際に学べることが示される。
我々は、既存の群同変ニューラルネットワークの能力を拡張して、複素変換に近似した同値性を示す。
論文 参考訳(メタデータ) (2021-09-03T09:25:57Z) - LieTransformer: Equivariant self-attention for Lie Groups [49.9625160479096]
群等価ニューラルネットワークは群不変ニューラルネットワークの構成要素として用いられる。
我々は、文学の範囲を、ディープラーニングモデルの顕著な構築ブロックとして現れつつある自己注意にまで広げる。
任意のリー群とその離散部分群に同値なリー自己結合層からなる構造であるリー変換器を提案する。
論文 参考訳(メタデータ) (2020-12-20T11:02:49Z) - Invariant Deep Compressible Covariance Pooling for Aerial Scene
Categorization [80.55951673479237]
本研究では,空気シーン分類におけるニュアンス変動を解決するために,新しい不変な深部圧縮性共分散プール (IDCCP) を提案する。
本研究では,公開空間画像データセットに関する広範な実験を行い,最先端の手法と比較して,この手法の優位性を実証する。
論文 参考訳(メタデータ) (2020-11-11T11:13:07Z) - Learning Invariances in Neural Networks [51.20867785006147]
ネットワークパラメータや拡張パラメータに関して,拡張性よりも分布をパラメータ化し,トレーニング損失を同時に最適化する方法を示す。
画像分類,回帰,セグメンテーション,分子特性予測における不均一性の正確なセットと範囲を,拡張の広い空間から復元することができる。
論文 参考訳(メタデータ) (2020-10-22T17:18:48Z) - Model Fusion with Kullback--Leibler Divergence [58.20269014662046]
異種データセットから学習した後続分布を融合する手法を提案する。
我々のアルゴリズムは、融合モデルと個々のデータセット後部の両方に対する平均場仮定に依存している。
論文 参考訳(メタデータ) (2020-07-13T03:27:45Z) - Generalizing Convolutional Neural Networks for Equivariance to Lie
Groups on Arbitrary Continuous Data [52.78581260260455]
任意の特定のリー群からの変換に同値な畳み込み層を構築するための一般的な方法を提案する。
同じモデルアーキテクチャを画像、ボール・アンド・スティック分子データ、ハミルトン力学系に適用する。
論文 参考訳(メタデータ) (2020-02-25T17:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。