論文の概要: Rates of Convergence of Generalised Variational Inference Posteriors under Prior Misspecification
- arxiv url: http://arxiv.org/abs/2510.03109v1
- Date: Fri, 03 Oct 2025 15:36:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.459164
- Title: Rates of Convergence of Generalised Variational Inference Posteriors under Prior Misspecification
- Title(参考訳): 先行的ミス種別における一般変分後者の収束率
- Authors: Terje Mildner, Paris Giampouras, Theodoros Damoulas,
- Abstract要約: 我々は、有界な発散を持つ一般化変分推論フレームワークにおいて、事前の誤特定に対する収束率とロバスト性を証明する。
これは GVI と Federated GVI にとって重要なオープンな課題である。
- 参考スコア(独自算出の注目度): 9.782149855051891
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We prove rates of convergence and robustness to prior misspecification within a Generalised Variational Inference (GVI) framework with bounded divergences. This addresses a significant open challenge for GVI and Federated GVI that employ a different divergence to the Kullback--Leibler under prior misspecification, operate within a subset of possible probability measures, and result in intractable posteriors. Our theoretical contributions cover severe prior misspecification while relying on our ability to restrict the space of possible GVI posterior measures, and infer properties based on this space. In particular, we are able to establish sufficient conditions for existence and uniqueness of GVI posteriors on arbitrary Polish spaces, prove that the GVI posterior measure concentrates on a neighbourhood of loss minimisers, and extend this to rates of convergence regardless of the prior measure.
- Abstract(参考訳): 一般化変分推論(GVI)フレームワークにおける事前の誤特定に対する収束率とロバスト性を示す。
このことは GVI とフェデレート GVI にとって重要なオープンな課題であり、これは事前の誤特定の下でクルバック-リーブラーと異なる相違を利用して確率測度のサブセット内で動作し、難解な後部を生じる。
我々の理論的な貢献は、GVI後続測度の空間を制限し、この空間に基づいて特性を推測する能力に依存しながら、厳しい事前不特定をカバーしている。
特に、任意のポーランド空間上でのGVI後続測度の存在と一意性について十分な条件を確立することができ、GVI後続測度が損失最小値の近傍に集中することを証明し、事前測度によらず収束率に拡張することができる。
関連論文リスト
- On the Theory of Conditional Feature Alignment for Unsupervised Domain-Adaptive Counting [21.02284952024882]
オブジェクトカウントモデルは、密度の多様性が異なるドメインにデプロイされるときに苦しむ。
条件付き特徴アライメントの理論的枠組みを提案する。
提案手法は既存の教師なし領域適応法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-06-20T16:37:48Z) - Federated Generalised Variational Inference: A Robust Probabilistic Federated Learning Framework [12.454538785810259]
FedGVIは確率的フェデレートラーニング(FL)フレームワークで、事前およびおそらく誤特定に対して堅牢である。
固定点収束、キャビティ分布の最適性、そして確率的不特定性に対する証明可能なロバスト性の観点から理論的解析を行う。
論文 参考訳(メタデータ) (2025-02-02T16:39:37Z) - Domain Adaptation with Cauchy-Schwarz Divergence [39.36943882475589]
教師なし領域適応(UDA)問題にコーシー=シュワルツの発散を導入する。
CS発散は、Kulback-Leibler発散よりも理論上より厳密な一般化誤差を提供する。
距離距離測定および対角訓練に基づくUDAフレームワークにおいて,CSのばらつきが有用であることを示す。
論文 参考訳(メタデータ) (2024-05-30T12:01:12Z) - From Gradient Flow on Population Loss to Learning with Stochastic
Gradient Descent [50.4531316289086]
SGD(Gradient Descent)は、大規模非ルートモデルの学習方法である。
集団損失のGFが収束すると仮定して、総合的な条件 SGD が収束する。
我々は、凸損失のような古典的な設定だけでなく、Retrieval Matrix sq-rootのようなより複雑な問題に対してもGD/SGDを統一的に解析する。
論文 参考訳(メタデータ) (2022-10-13T03:55:04Z) - Benign Underfitting of Stochastic Gradient Descent [72.38051710389732]
本研究では,適切な学習データを得ることで,一般化性能を実現する「従来型」学習ルールとして,勾配降下度(SGD)がどの程度理解されるかを検討する。
類似現象が起こらない近縁な交換SGDを解析し、その集団リスクが実際に最適な速度で収束することを証明する。
論文 参考訳(メタデータ) (2022-02-27T13:25:01Z) - Stochastic Gradient Descent-Ascent and Consensus Optimization for Smooth
Games: Convergence Analysis under Expected Co-coercivity [49.66890309455787]
本稿では,SGDA と SCO の最終的な収束保証として,期待されるコヒーレンシティ条件を導入し,その利点を説明する。
定常的なステップサイズを用いた場合、両手法の線形収束性を解の近傍に証明する。
我々の収束保証は任意のサンプリングパラダイムの下で保たれ、ミニバッチの複雑さに関する洞察を与える。
論文 参考訳(メタデータ) (2021-06-30T18:32:46Z) - On Lower Bounds for Standard and Robust Gaussian Process Bandit
Optimization [55.937424268654645]
有界ノルムを持つ関数のブラックボックス最適化問題に対するアルゴリズム非依存な下界を考える。
本稿では, 単純さ, 汎用性, エラー確率への依存性の向上など, 後悔の下位境界を導出するための新しい証明手法を提案する。
論文 参考訳(メタデータ) (2020-08-20T03:48:14Z) - On Localized Discrepancy for Domain Adaptation [146.4580736832752]
本稿では,局所化後の仮説空間上で定義される局所的不一致について検討する。
2つの領域を交換すると、それらの値が異なるため、非対称な移動困難が明らかになる。
論文 参考訳(メタデータ) (2020-08-14T08:30:02Z) - GenDICE: Generalized Offline Estimation of Stationary Values [108.17309783125398]
重要なアプリケーションでは,効果的な推定が依然として可能であることを示す。
我々のアプローチは、定常分布と経験分布の差を補正する比率を推定することに基づいている。
結果として得られるアルゴリズム、GenDICEは単純で効果的である。
論文 参考訳(メタデータ) (2020-02-21T00:27:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。