論文の概要: Online Bayesian Imbalanced Learning with Bregman-Calibrated Deep Networks
- arxiv url: http://arxiv.org/abs/2602.08128v1
- Date: Sun, 08 Feb 2026 21:23:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.992522
- Title: Online Bayesian Imbalanced Learning with Bregman-Calibrated Deep Networks
- Title(参考訳): Bregman-Calibrated Deep Networksを用いたオンラインベイズ不均衡学習
- Authors: Zahir Alsulaimawi,
- Abstract要約: 本報告では、クラス優先の仮定から確率比の推定を分離する原則的フレームワークであるOBIL(TextitOnline Bayesian Im Balanced Learning)を提案する。
我々のアプローチは、ブレグマンの発散と適切なスコアリングルールとの確立された接続に基づいて、そのような損失で訓練されたディープネットワークが後続確率推定を生成することを示す。
これらの確率比の推定は、クラス事前およびコスト構造における任意の変化の下でも有効であり、最適なベイズ決定のためのしきい値調整のみを必要とすることを証明している。
- 参考スコア(独自算出の注目度): 0.7106986689736825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Class imbalance remains a fundamental challenge in machine learning, where standard classifiers exhibit severe performance degradation in minority classes. Although existing approaches address imbalance through resampling or cost-sensitive learning during training, they require retraining or access to labeled target data when class distributions shift at deployment time, a common occurrence in real-world applications such as fraud detection, medical diagnosis, and anomaly detection. We present \textit{Online Bayesian Imbalanced Learning} (OBIL), a principled framework that decouples likelihood-ratio estimation from class-prior assumptions, enabling real-time adaptation to distribution shifts without model retraining. Our approach builds on the established connection between Bregman divergences and proper scoring rules to show that deep networks trained with such losses produce posterior probability estimates from which prior-invariant likelihood ratios can be extracted. We prove that these likelihood-ratio estimates remain valid under arbitrary changes in class priors and cost structures, requiring only a threshold adjustment for optimal Bayes decisions. We derive finite-sample regret bounds demonstrating that OBIL achieves $O(\sqrt{T \log T})$ regret against an oracle with perfect prior knowledge. Extensive experiments on benchmark datasets and medical diagnosis benchmarks under simulated deployment shifts demonstrate that OBIL maintains robust performance under severe distribution shifts, outperforming state-of-the-art methods in F1 Score when test distributions deviate significantly from the training conditions.
- Abstract(参考訳): クラス不均衡は、標準分類器が少数クラスで深刻な性能低下を示す機械学習において、依然として根本的な課題である。
既存のアプローチは、トレーニング中の再サンプリングやコスト感受性学習を通じて不均衡に対処するが、デプロイ時にクラス分布がシフトするときにラベル付きターゲットデータにリトレーニングまたはアクセスする必要がある。
本稿では,クラスプライア仮定から確率比推定を分離し,モデル再構成なしに分布シフトへのリアルタイム適応を可能にする,原則的フレームワークである‘textit{Online Bayesian Im Balanced Learning}(OBIL)を提示する。
提案手法は,ブレグマン偏差と適切なスコアリング規則の確立した関係に基づいて,そのような損失で訓練された深層ネットワークが,事前不変な確率比を抽出可能な後続確率推定を生成することを示す。
これらの確率比の推定は、クラス事前およびコスト構造における任意の変化の下でも有効であり、最適なベイズ決定のためのしきい値調整のみを必要とすることを証明している。
我々は、OBILが完全な事前知識を持つオラクルに対して$O(\sqrt{T \log T})$後悔を達成することを示す有限サンプル後悔境界を導出する。
シミュレーションされた展開シフトの下でのベンチマークデータセットと医療診断ベンチマークの大規模な実験により、OBILは厳しい分散シフトの下で堅牢な性能を維持し、テスト分布がトレーニング条件から大きく逸脱した場合、F1 Scoreの最先端メソッドよりも優れていたことが示されている。
関連論文リスト
- Class Confidence Aware Reweighting for Long Tailed Learning [0.8297806372438926]
本稿では,長期学習のためのクラスの設計と信頼性を考慮した再重み付け手法を提案する。
我々は、(p_t,f_c)関数を用いて、予測の信頼性値に基づいて、トレーニングタスクに対するコントリビューションの変調を可能にする。
論文 参考訳(メタデータ) (2026-01-22T12:58:05Z) - Bayesian Test-time Adaptation for Object Recognition and Detection with Vision-language Models [86.53246292425699]
我々は、オブジェクト認識と検出の両方のためのTTAのためのトレーニングフリーフレームワークであるBCA+を提案する。
我々はベイズ推論問題として適応を定式化し、キャッシュベースの予測で初期VLM出力を融合することで最終的な予測を生成する。
BCA+は、認識と検出のベンチマークの両方で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-10-03T06:27:33Z) - Backpropagation-Free Test-Time Adaptation via Probabilistic Gaussian Alignment [16.352863226512984]
テスト時間適応(TTA)は、推論中にラベルのないテストデータを活用することにより、分散シフト下でのゼロショットロバスト性を高める。
ほとんどのメソッドは、スケーラビリティを制限し、リアルタイムデプロイメントを妨げるバックプロパゲーションや反復最適化に依存しています。
本稿では,Advanced Distribution-AwareとBack propagation-free Test-time Adapting法であるADAPTを提案する。
論文 参考訳(メタデータ) (2025-08-21T13:42:49Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Improving Adaptive Conformal Prediction Using Self-Supervised Learning [72.2614468437919]
我々は、既存の予測モデルの上に自己教師付きプレテキストタスクを持つ補助モデルを訓練し、自己教師付きエラーを付加的な特徴として用いて、非整合性スコアを推定する。
合成データと実データの両方を用いて、効率(幅)、欠陥、共形予測間隔の超過といった付加情報の利点を実証的に実証する。
論文 参考訳(メタデータ) (2023-02-23T18:57:14Z) - Semantic Self-adaptation: Enhancing Generalization with a Single Sample [45.111358665370524]
セマンティックセグメンテーションのための自己適応型アプローチを提案する。
整合正則化を用いて畳み込み層のパラメータを入力画像に微調整する。
実験により, 自己適応は訓練時のモデル正規化の確立した実践を補完する可能性が示唆された。
論文 参考訳(メタデータ) (2022-08-10T12:29:01Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。