論文の概要: Recurrent Equivariant Constraint Modulation: Learning Per-Layer Symmetry Relaxation from Data
- arxiv url: http://arxiv.org/abs/2602.02853v1
- Date: Mon, 02 Feb 2026 21:59:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.108071
- Title: Recurrent Equivariant Constraint Modulation: Learning Per-Layer Symmetry Relaxation from Data
- Title(参考訳): 反復同変制約変調:データから階層ごとの対称性緩和を学習する
- Authors: Stefanos Pertigkiozoglou, Mircea Petrache, Shubhendu Trivedi, Kostas Daniilidis,
- Abstract要約: 等価ニューラルネットワークは、基礎となるタスク対称性を利用して一般化を改善する。
本稿では,レイヤワイド制約変調機構であるRecurrent Equivariant ConstraintModulation (RECM)を提案する。
RECMは、トレーニング信号と各層の入力ターゲット分布の対称性からのみ適切な緩和レベルを学習する。
- 参考スコア(独自算出の注目度): 36.287199718605
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Equivariant neural networks exploit underlying task symmetries to improve generalization, but strict equivariance constraints can induce more complex optimization dynamics that can hinder learning. Prior work addresses these limitations by relaxing strict equivariance during training, but typically relies on prespecified, explicit, or implicit target levels of relaxation for each network layer, which are task-dependent and costly to tune. We propose Recurrent Equivariant Constraint Modulation (RECM), a layer-wise constraint modulation mechanism that learns appropriate relaxation levels solely from the training signal and the symmetry properties of each layer's input-target distribution, without requiring any prior knowledge about the task-dependent target relaxation level. We demonstrate that under the proposed RECM update, the relaxation level of each layer provably converges to a value upper-bounded by its symmetry gap, namely the degree to which its input-target distribution deviates from exact symmetry. Consequently, layers processing symmetric distributions recover full equivariance, while those with approximate symmetries retain sufficient flexibility to learn non-symmetric solutions when warranted by the data. Empirically, RECM outperforms prior methods across diverse exact and approximate equivariant tasks, including the challenging molecular conformer generation on the GEOM-Drugs dataset.
- Abstract(参考訳): 等価ニューラルネットワークは、基礎となるタスク対称性を利用して一般化を改善するが、厳密な同値制約は学習を妨げるようなより複雑な最適化力学を引き起こす。
以前の作業では、トレーニング中に厳密な等価性を緩和することでこれらの制限に対処するが、通常、各ネットワーク層に対して、所定の、明示的、暗黙的な緩和レベルに依存しており、タスク依存であり、チューニングにコストがかかる。
Recurrent Equivariant Constraint Modulation (RECM) は、タスク依存的目標緩和レベルに関する事前の知識を必要とせず、トレーニング信号のみから適切な緩和レベルを学習し、各レイヤの入力目標分布の対称性特性を学習する階層的制約変調機構である。
提案したRECM更新では,各層の緩和レベルが,その対称性ギャップによって上界の値,すなわち,その入力対象分布が正確に対称性から逸脱する程度に確実に収束することを示した。
その結果、対称分布を処理する層は完全同値を回復する一方、近似対称性を持つ層はデータによって保証されたとき、非対称解を学ぶのに十分な柔軟性を持つ。
実証的に、RECMはGEOM-Drugsデータセット上の挑戦的な分子コンホメータ生成を含む、様々な正確でほぼ同変なタスクで先行手法より優れている。
関連論文リスト
- Partially Equivariant Reinforcement Learning in Symmetry-Breaking Environments [10.122552307413711]
グループ対称性は強化学習(RL)に強力な誘導バイアスを与える
グループ対称性は強化学習(RL)に強力な誘導バイアスを与える
論文 参考訳(メタデータ) (2025-11-30T14:41:08Z) - Controlled Data Rebalancing in Multi-Task Learning for Real-World Image Super-Resolution [51.79973519845773]
実世界の画像超解像(Real-SR)は、低解像度画像の複雑な劣化パターンのために難しい問題である。
本稿では,データヘテロジニアスなマルチタスク学習問題としてReal-SRの枠組みを改良したパラダイムを提案する。
論文 参考訳(メタデータ) (2025-06-05T21:40:21Z) - A Regularization-Guided Equivariant Approach for Image Restoration [46.44312175792672]
同変および不変なディープラーニングモデルは、データに固有の対称性を利用するために開発されている。
これらの手法は、しばしば限られた表現精度に悩まされ、実際には成り立たないような厳密な対称性の仮定に依存する。
本稿では,ネットワークの表現精度を保ちながら,データに対する適切な対称性制約を適応的に適用する回転同変正規化戦略を提案する。
論文 参考訳(メタデータ) (2025-05-26T10:30:26Z) - Learning (Approximately) Equivariant Networks via Constrained Optimization [25.51476313302483]
等価ニューラルネットワークは、そのアーキテクチャを通して対称性を尊重するように設計されている。
実世界のデータは、ノイズ、構造的変動、測定バイアス、その他の対称性を破る効果のために、しばしば完全対称性から逸脱する。
適応制約等分散(ACE)は、柔軟で非等価なモデルから始まる制約付き最適化手法である。
論文 参考訳(メタデータ) (2025-05-19T18:08:09Z) - Rao-Blackwell Gradient Estimators for Equivariant Denoising Diffusion [55.95767828747407]
分子やタンパク質の生成のようなドメインでは、物理系はモデルにとって重要な固有の対称性を示す。
学習のばらつきを低減し、確率的に低い分散勾配推定器を提供するフレームワークを提案する。
また,軌道拡散法(Orbit Diffusion)と呼ばれる手法を用いて,損失とサンプリングの手順を取り入れた推定器の実用的実装を提案する。
論文 参考訳(メタデータ) (2025-02-14T03:26:57Z) - Improving Equivariant Model Training via Constraint Relaxation [31.507956579770088]
そこで本研究では,トレーニング中の厳密な均衡制約を緩和することにより,そのようなモデルの最適化を改善する新しい枠組みを提案する。
本研究では,様々な最先端ネットワークアーキテクチャの実験結果を提供し,このトレーニングフレームワークが一般化性能を向上した同変モデルを実現する方法を示す。
論文 参考訳(メタデータ) (2024-08-23T17:35:08Z) - Learning Layer-wise Equivariances Automatically using Gradients [66.81218780702125]
畳み込みは等価対称性をニューラルネットワークにエンコードし、より優れた一般化性能をもたらす。
対称性は、ネットワークが表現できる機能、事前に指定する必要、適応できない機能に対して、固定されたハード制約を提供する。
私たちのゴールは、勾配を使ってデータから自動的に学習できるフレキシブル対称性の制約を可能にすることです。
論文 参考訳(メタデータ) (2023-10-09T20:22:43Z) - Compressed Regression over Adaptive Networks [58.79251288443156]
分散エージェントのネットワークによって達成可能な性能を導出し,通信制約や回帰問題を解消し,適応的に解決する。
エージェントによって最適化に必要なパラメータをオンラインで学習できる最適化アロケーション戦略を考案する。
論文 参考訳(メタデータ) (2023-04-07T13:41:08Z) - Reinforcement Learning for Adaptive Mesh Refinement [63.7867809197671]
マルコフ決定過程としてのAMRの新規な定式化を提案し,シミュレーションから直接改良政策を訓練するために深部強化学習を適用した。
これらのポリシーアーキテクチャのモデルサイズはメッシュサイズに依存しないため、任意に大きく複雑なシミュレーションにスケールします。
論文 参考訳(メタデータ) (2021-03-01T22:55:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。