論文の概要: Bayesian-based Online Label Shift Estimation with Dynamic Dirichlet Priors
- arxiv url: http://arxiv.org/abs/2511.18615v1
- Date: Sun, 23 Nov 2025 21:10:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.928175
- Title: Bayesian-based Online Label Shift Estimation with Dynamic Dirichlet Priors
- Title(参考訳): 動的ディリクレ前駆体を用いたベイズ型オンラインラベルシフト推定
- Authors: Jiawei Hu, Javier A. Barria,
- Abstract要約: FMAPLS(Full Maximum A Posterior Label Shift)と呼ばれるラベルシフト推定のためのベイズ的フレームワークを提案する。
その結果、FMAPLSとオンラインFMAPLSはそれぞれ40%と12%のKLのばらつきを達成できた。
これらの結果は,大規模および動的学習シナリオに対する提案手法の堅牢性,拡張性,適合性を確認した。
- 参考スコア(独自算出の注目度): 4.8239078213401
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Label shift, a prevalent challenge in supervised learning, arises when the class prior distribution of test data differs from that of training data, leading to significant degradation in classifier performance. To accurately estimate the test priors and enhance classification accuracy, we propose a Bayesian framework for label shift estimation, termed Full Maximum A Posterior Label Shift (FMAPLS), along with its online version, online-FMAPLS. Leveraging batch and online Expectation-Maximization (EM) algorithms, these methods jointly and dynamically optimize Dirichlet hyperparameters $\boldsymbolα$ and class priors $\boldsymbolπ$, thereby overcoming the rigid constraints of the existing Maximum A Posterior Label Shift (MAPLS) approach. Moreover, we introduce a linear surrogate function (LSF) to replace gradient-based hyperparameter updates, yielding closed-form solutions that reduce computational complexity while retaining asymptotic equivalence. The online variant substitutes the batch E-step with a stochastic approximation, enabling real-time adaptation to streaming data. Furthermore, our theoretical analysis reveals a fundamental trade-off between online convergence rate and estimation accuracy. Extensive experiments on CIFAR100 and ImageNet datasets under shuffled long-tail and Dirichlet test priors demonstrate that FMAPLS and online-FMAPLS respectively achieve up to 40% and 12% lower KL divergence and substantial improvements in post-shift accuracy over state-of-the-art baselines, particularly under severe class imbalance and distributional uncertainty. These results confirm the robustness, scalability, and suitability of the proposed methods for large-scale and dynamic learning scenarios.
- Abstract(参考訳): 教師付き学習において一般的な課題であるラベルシフトは、テストデータの事前分布がトレーニングデータと異なる場合に起こり、分類器の性能が著しく低下する。
テストの優先順位を正確に推定し、分類精度を高めるために、オンライン版であるオンライン版FMAPLSとともに、Full Maximum A Posterior Label Shift (FMAPLS)と呼ばれるラベルシフト推定のためのベイズ的フレームワークを提案する。
バッチとオンライン期待-最大化(EM)アルゴリズムを活用することで、これらの手法は共同で動的にディリクレのハイパーパラメータを$\boldsymbolα$とclass priors $\boldsymbolπ$を最適化し、既存のMaximum A Posterior Label Shift(MAPLS)アプローチの厳密な制約を克服する。
さらに,勾配に基づくハイパーパラメータ更新を置き換える線形サロゲート関数(LSF)を導入し,漸近的等価性を保ちながら計算複雑性を減少させる閉形式解を得る。
オンライン版では、バッチEステップを確率近似で置き換え、ストリーミングデータへのリアルタイム適応を可能にする。
さらに,オンライン収束率と推定精度の基本的なトレードオフを明らかにした。
CIFAR100とImageNetデータセットをシャッフルした長尾試験とディリクレ試験による大規模な実験により、FMAPLSとオンラインFMAPLSはそれぞれ最大40%と12%のKLのばらつきを達成し、最先端のベースライン、特に厳密なクラス不均衡と分布の不確実性の下で、ポストシフト後の精度を大幅に改善した。
これらの結果は,大規模および動的学習シナリオに対する提案手法の堅牢性,拡張性,適合性を確認した。
関連論文リスト
- Bi-level Meta-Policy Control for Dynamic Uncertainty Calibration in Evidential Deep Learning [11.953394478206581]
最適不確実性モデリングのためのKL分散係数とディリクレ事前強度を調整する動的メタ学習フレームワークであるMeta-Policy Controller (MPC)を提案する。
MPCはモデル予測の信頼性とキャリブレーションを大幅に向上させ、信頼性に基づくサンプル拒絶後の不確実性校正、予測精度、性能保持を改善する。
論文 参考訳(メタデータ) (2025-10-10T02:39:26Z) - BAPE: Learning an Explicit Bayes Classifier for Long-tailed Visual Recognition [78.70453964041718]
現在のディープラーニングアルゴリズムは通常、後部確率を簡易に推定することで最適分類器を解く。
この単純な手法は、厳密にバランスのとれた学術ベンチマークデータセットに有効であることが証明されている。
しかし、これは現実世界の長い尾のデータ分布には適用できない。
本稿では,データ分布のより正確な理論的推定を行う新しい手法(BAPE)を提案する。
論文 参考訳(メタデータ) (2025-06-29T15:12:50Z) - Decentralized Nonconvex Composite Federated Learning with Gradient Tracking and Momentum [78.27945336558987]
分散サーバ(DFL)はクライアント・クライアント・アーキテクチャへの依存をなくす。
非滑らかな正規化はしばしば機械学習タスクに組み込まれる。
本稿では,これらの問題を解決する新しいDNCFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-17T08:32:25Z) - SeWA: Selective Weight Average via Probabilistic Masking [51.015724517293236]
より良く、より高速な収束を達成するためには、ほんの数ポイントしか必要としないことを示す。
離散選択問題を連続的な部分集合最適化フレームワークに変換する。
両凸画像チェックポイントの値よりもシャープなSeWAの安定性境界を導出する。
論文 参考訳(メタデータ) (2025-02-14T12:35:21Z) - Gradient-free variational learning with conditional mixture networks [39.827869318925494]
条件付き混合ネットワーク(CMN)の高速・勾配なし変分法であるCAVI-CMNを導入する。
CAVI-CMNは、バックプロパゲーションを伴う最大推定値(MLE)と比較して、競争力があり、しばしば優れた予測精度を達成する。
入力サイズや専門家の数が増加するにつれて、計算時間はMLEと競合的にスケールする。
論文 参考訳(メタデータ) (2024-08-29T10:43:55Z) - Ensemble Kalman Filtering Meets Gaussian Process SSM for Non-Mean-Field and Online Inference [47.460898983429374]
我々は,非平均場(NMF)変動推定フレームワークにアンサンブルカルマンフィルタ(EnKF)を導入し,潜在状態の後方分布を近似する。
EnKFとGPSSMのこの新しい結婚は、変分分布の学習における広範なパラメータ化の必要性をなくすだけでなく、エビデンスの下限(ELBO)の解釈可能でクローズドな近似を可能にする。
得られたEnKF支援オンラインアルゴリズムは、データ適合精度を確保しつつ、モデル正規化を組み込んで過度適合を緩和し、目的関数を具現化する。
論文 参考訳(メタデータ) (2023-12-10T15:22:30Z) - Online Continual Learning via Logit Adjusted Softmax [24.327176079085703]
訓練中のクラス間の不均衡は、忘れる主な原因として特定されている。
トレーニング中のモデルロジットの簡単な調整は、事前クラスバイアスに効果的に抵抗することができる。
提案手法であるLogit Adjusted Softmaxは,クラス増分だけでなく,現実的な一般設定においても,クラス間不均衡の影響を軽減することができる。
論文 参考訳(メタデータ) (2023-11-11T03:03:33Z) - Test-Time Adaptation Induces Stronger Accuracy and Agreement-on-the-Line [65.14099135546594]
最近のテスト時間適応 (TTA) 法は, モデルに非常に弱い相関関係を示すシフトであっても, ACL と AGL の傾向を大幅に強化する。
この結果から,TTAとAGLに基づく推定手法を組み合わせることで,より広い分布シフトの集合に対する高精度なモデルOOD性能を推定できることが示唆された。
論文 参考訳(メタデータ) (2023-10-07T23:21:25Z) - Adaptive Dimension Reduction and Variational Inference for Transductive
Few-Shot Classification [2.922007656878633]
適応次元の削減によりさらに改善された変分ベイズ推定に基づく新しいクラスタリング法を提案する。
提案手法は,Few-Shotベンチマークにおける現実的非バランスなトランスダクティブ設定の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2022-09-18T10:29:02Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。