論文の概要: Divergence-Minimization for Latent-Structure Models: Monotone Operators, Contraction Guarantees, and Robust Inference
- arxiv url: http://arxiv.org/abs/2511.17974v1
- Date: Sat, 22 Nov 2025 08:25:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.559981
- Title: Divergence-Minimization for Latent-Structure Models: Monotone Operators, Contraction Guarantees, and Robust Inference
- Title(参考訳): 潜在構造モデルの多様性最小化:モノトーン演算子、契約保証子、ロバスト推論
- Authors: Lei Li, Anand N. Vidyashankar,
- Abstract要約: 我々は、潜時混合モデルにおける堅牢かつ効率的な推論のための分散化最小化(DM)フレームワークを開発する。
残留調整された発散を最適化することにより、DMアプローチはEMを特別なケースとして回収し、堅牢な代替品を生成する。
- 参考スコア(独自算出の注目度): 5.373905622325275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop a divergence-minimization (DM) framework for robust and efficient inference in latent-mixture models. By optimizing a residual-adjusted divergence, the DM approach recovers EM as a special case and yields robust alternatives through different divergence choices. We establish that the sample objective decreases monotonically along the iterates, leading the DM sequence to stationary points under standard conditions, and that at the population level the operator exhibits local contractivity near the minimizer. Additionally, we verify consistency and $\sqrt{n}$-asymptotic normality of minimum-divergence estimators and of finitely many DM iterations, showing that under correct specification their limiting covariance matches the Fisher information. Robustness is analyzed via the residual-adjustment function, yielding bounded influence functions and a strictly positive breakdown bound for bounded-RAF divergences, and we contrast this with the non-robust behaviour of KL/EM. Next, we address the challenge of determining the number of mixture components by proposing a penalized divergence criterion combined with repeated sample splitting, which delivers consistent order selection and valid post-selection inference. Empirically, DM instantiations based on Hellinger and negative exponential divergences deliver accurate inference and remain stable under contamination in mixture and image-segmentation tasks. The results clarify connections to MM and proximal-point methods and offer practical defaults, making DM a drop-in alternative to EM for robust latent-structure inference.
- Abstract(参考訳): 我々は、潜時混合モデルにおける堅牢かつ効率的な推論のための分散化最小化(DM)フレームワークを開発する。
残留調整された発散を最適化することにより、DMアプローチはEMを特別なケースとして回収し、異なる発散選択によって堅牢な代替品を生成する。
提案手法では, サンプル対象が単調に単調に減少し, DMシーケンスが標準条件下で定常点に導かれること, 個体群レベルでは, 最小値付近で局所的収縮性を示すことが確認された。
さらに、最小分割推定器の一貫性と$\sqrt{n}$-asymptotic normalityと有限個のDM反復の整合性を検証し、それらの制限共分散がフィッシャー情報と一致することを示す。
残差調整関数を用いてロバストネスを解析し、有界影響関数と有界RAF発散に対する厳密な正の分解を導出し、これをKL/EMの非破壊挙動と対比する。
次に,一貫した順序選択と選択後の妥当な推論を実現するために,繰り返しサンプリングスプリッティングと組み合わせてペナル化分散基準を提案することで,混合成分数を決定するという課題に対処する。
経験的には、Hellingerと負の指数発散に基づくDMインスタンス化は正確な推論をもたらし、混合および画像分離タスクにおいて汚染下で安定である。
その結果,MM法と近点法との関係を明らかにするとともに,実践的なデフォルトを提供することで,DMを頑健な潜在構造推定のためのEMの代替品として活用できることがわかった。
関連論文リスト
- Dendrograms of Mixing Measures for Softmax-Gated Gaussian Mixture of Experts: Consistency without Model Sweeps [41.371172458797524]
ゲーティングパラメータの共通翻訳、固有のゲート-エキスパート相互作用、およびタイトな数値-デノミネータ結合までの不特定性に対処する。
モデル選択には, 最適なパラメータ率を得る専門家の数を一貫したスイープフリーセレクタとして, デンドログラム誘導SGMoEを適応させる。
干ばつを識別できるトウモロコシの形質のデータセット上で、私たちのデンドログラム誘導SGMoEは2人の専門家を選別し、明確な混合階層を公開し、確率を早期に安定化し、解釈可能な遺伝子型フェノタイプマップを生成する。
論文 参考訳(メタデータ) (2025-10-14T17:23:44Z) - Discretization-free Multicalibration through Loss Minimization over Tree Ensembles [22.276913140687725]
深度2の決定木をアンサンブルする離散化のない多重校正法を提案する。
本アルゴリズムは,データ分布が損失飽和と呼ばれる技術的条件を満たすことを前提として,マルチキャリブレーションを確実に達成する。
論文 参考訳(メタデータ) (2025-05-23T03:29:58Z) - Decoupling Training-Free Guided Diffusion by ADMM [17.425995507142467]
非条件生成モデルと誘導損失関数を明確に分離する新しいフレームワークを提案する。
そこで我々は,これらの成分を適応的にバランスをとるために,alternating Direction Method of Multipliers (ADMM) に基づく新しいアルゴリズムを開発した。
実験の結果,提案手法は高品質なサンプルを連続的に生成することがわかった。
論文 参考訳(メタデータ) (2024-11-18T23:05:54Z) - Adaptive Annealed Importance Sampling with Constant Rate Progress [68.8204255655161]
Annealed Importance Smpling (AIS)は、抽出可能な分布から重み付けされたサンプルを合成する。
本稿では,alpha$-divergencesに対する定数レートAISアルゴリズムとその効率的な実装を提案する。
論文 参考訳(メタデータ) (2023-06-27T08:15:28Z) - Targeted Separation and Convergence with Kernel Discrepancies [61.973643031360254]
カーネルベースの不一致測度は、(i)ターゲットPを他の確率測度から分離するか、(ii)Pへの弱収束を制御する必要がある。
本稿では, (i) と (ii) を保証するのに十分な,必要な新しい条件を導出する。
可分距離空間上のMDDに対して、ボヒナー埋め込み可測度を分離するカーネルを特徴づけ、すべての測度を非有界カーネルと分離するための単純な条件を導入する。
論文 参考訳(メタデータ) (2022-09-26T16:41:16Z) - Derivatives and residual distribution of regularized M-estimators with application to adaptive tuning [5.064404027153094]
凸ペナルティを基準とした勾配リプシッツ損失関数を持つM推定器について検討した。
実例は、ハマー損失と弾性ネットペナルティで構築されたロバストなM推定器である。
論文 参考訳(メタデータ) (2021-07-11T23:20:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。