論文の概要: Symmetries in PAC-Bayesian Learning
- arxiv url: http://arxiv.org/abs/2510.17303v1
- Date: Mon, 20 Oct 2025 08:45:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.372123
- Title: Symmetries in PAC-Bayesian Learning
- Title(参考訳): PACベイズ学習における対称性
- Authors: Armin Beck, Peter Ochs,
- Abstract要約: 一般化保証を非コンパクト対称性のより広範な設定に拡張する。
非一様回転群を持つ回転MNISTデータセットの実験により,本理論を検証した。
- 参考スコア(独自算出の注目度): 0.9023847175654601
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Symmetries are known to improve the empirical performance of machine learning models, yet theoretical guarantees explaining these gains remain limited. Prior work has focused mainly on compact group symmetries and often assumes that the data distribution itself is invariant, an assumption rarely satisfied in real-world applications. In this work, we extend generalization guarantees to the broader setting of non-compact symmetries, such as translations and to non-invariant data distributions. Building on the PAC-Bayes framework, we adapt and tighten existing bounds, demonstrating the approach on McAllester's PAC-Bayes bound while showing that it applies to a wide range of PAC-Bayes bounds. We validate our theory with experiments on a rotated MNIST dataset with a non-uniform rotation group, where the derived guarantees not only hold but also improve upon prior results. These findings provide theoretical evidence that, for symmetric data, symmetric models are preferable beyond the narrow setting of compact groups and invariant distributions, opening the way to a more general understanding of symmetries in machine learning.
- Abstract(参考訳): 対称性は機械学習モデルの経験的性能を改善することが知られているが、これらの利得を説明する理論的保証は限られている。
以前の研究は主にコンパクト群対称性に焦点を当てており、データ分布自体が不変であると仮定することが多い。
本研究では、一般化保証を、翻訳や不変データ分布といった非コンパクトな対称性のより広範な設定に拡張する。
PAC-Bayesフレームワーク上に構築され、既存の境界を適応し、強化し、マクレスターのPAC-Bayes境界へのアプローチを示すとともに、幅広いPAC-Bayes境界に適用可能であることを示す。
非一様回転群を用いた回転MNISTデータセットの実験により,本理論を検証した。
これらの結果は、対称データに対して、対称モデルがコンパクト群や不変分布の狭い設定を超えて好ましいことを示し、機械学習における対称性のより一般的な理解への道を開いた。
関連論文リスト
- A Regularization-Guided Equivariant Approach for Image Restoration [46.44312175792672]
同変および不変なディープラーニングモデルは、データに固有の対称性を利用するために開発されている。
これらの手法は、しばしば限られた表現精度に悩まされ、実際には成り立たないような厳密な対称性の仮定に依存する。
本稿では,ネットワークの表現精度を保ちながら,データに対する適切な対称性制約を適応的に適用する回転同変正規化戦略を提案する。
論文 参考訳(メタデータ) (2025-05-26T10:30:26Z) - Learning Symmetries via Weight-Sharing with Doubly Stochastic Tensors [46.59269589647962]
グループ平等は、ディープラーニングにおいて価値ある帰納的バイアスとして現れてきた。
群同変法は、利害の群を事前に知る必要がある。
データセットが強い対称性を示すと、置換行列は正規群表現に収束することを示す。
論文 参考訳(メタデータ) (2024-12-05T20:15:34Z) - Lie Algebra Canonicalization: Equivariant Neural Operators under arbitrary Lie Groups [11.572188414440436]
我々は、対称性群の無限小生成子の作用のみを利用する新しいアプローチであるLie aLgebrA Canonicalization (LieLAC)を提案する。
標準化のフレームワーク内で運用されているため、LieLACは制約のない事前訓練されたモデルと容易に統合できる。
論文 参考訳(メタデータ) (2024-10-03T17:21:30Z) - Uniform Transformation: Refining Latent Representation in Variational Autoencoders [7.4316292428754105]
本稿では,不規則な潜伏分布に対応するために,新しい適応型3段階一様変換(UT)モジュールを提案する。
この手法は不規則分布を潜在空間の均一分布に再構成することにより、潜在表現の絡み合いと解釈可能性を大幅に向上させる。
実験により,提案するUTモジュールの有効性を実証し,ベンチマークデータセット間の絡み合いの指標を改良した。
論文 参考訳(メタデータ) (2024-07-02T21:46:23Z) - SymmPI: Predictive Inference for Data with Group Symmetries [20.772826042110633]
本研究では,データ分布が一般群対称性を持つ場合の予測推論手法であるSymbPIを提案する。
この方法は分布同変変換という新しい概念を利用する。
本研究では,SymbPIが分布不変性の下で有効なカバレッジを持つことを示すとともに,分布シフト時の性能を特徴付ける。
論文 参考訳(メタデータ) (2023-12-26T18:41:14Z) - Wrapped Distributions on homogeneous Riemannian manifolds [58.720142291102135]
パラメータ、対称性、モダリティなどの分布の性質の制御は、フレキシブルな分布の族を生み出す。
変動型オートエンコーダと潜在空間ネットワークモデル内で提案した分布を利用して,我々のアプローチを実証的に検証する。
論文 参考訳(メタデータ) (2022-04-20T21:25:21Z) - Equivariant Manifold Flows [48.21296508399746]
等変多様体フローを通じて任意の多様体上の対称性不変分布を学習するための理論的基礎を置く。
量子場理論の文脈で、SU(n)$以上のゲージ不変密度を学習するためにこの手法の実用性を実証する。
論文 参考訳(メタデータ) (2021-07-19T03:04:44Z) - Von Mises-Fisher Elliptical Distribution [5.7559253770425425]
本稿では,von-mises-fisher(vmf)分布を用いて,歪楕円分布の明示的かつ単純な確率表現を求める。
これは、非対称学習システムに対処できるだけでなく、歪んだ分布を一般化するための物理的に意味のある方法を提供するためにも示される。
また,提案するvmf分布は,理論上および実例を通じて,生成が容易であり,推定が安定であることを示す。
論文 参考訳(メタデータ) (2021-03-14T15:14:04Z) - Generalized Sliced Distances for Probability Distributions [47.543990188697734]
我々は、一般化スライス確率測定(GSPM)と呼ばれる、幅広い確率測定値の族を紹介する。
GSPMは一般化されたラドン変換に根付いており、ユニークな幾何学的解釈を持つ。
GSPMに基づく勾配流を生成モデル応用に適用し、軽度な仮定の下では、勾配流が大域的最適に収束することを示す。
論文 参考訳(メタデータ) (2020-02-28T04:18:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。