論文の概要: BAPE: Learning an Explicit Bayes Classifier for Long-tailed Visual Recognition
- arxiv url: http://arxiv.org/abs/2506.23280v1
- Date: Sun, 29 Jun 2025 15:12:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.803695
- Title: BAPE: Learning an Explicit Bayes Classifier for Long-tailed Visual Recognition
- Title(参考訳): BAPE:ロングテール視覚認識のための明示的ベイズ分類器の学習
- Authors: Chaoqun Du, Yulin Wang, Shiji Song, Gao Huang,
- Abstract要約: 現在のディープラーニングアルゴリズムは通常、後部確率を簡易に推定することで最適分類器を解く。
この単純な手法は、厳密にバランスのとれた学術ベンチマークデータセットに有効であることが証明されている。
しかし、これは現実世界の長い尾のデータ分布には適用できない。
本稿では,データ分布のより正確な理論的推定を行う新しい手法(BAPE)を提案する。
- 参考スコア(独自算出の注目度): 78.70453964041718
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bayesian decision theory advocates the Bayes classifier as the optimal approach for minimizing the risk in machine learning problems. Current deep learning algorithms usually solve for the optimal classifier by \emph{implicitly} estimating the posterior probabilities, \emph{e.g.}, by minimizing the Softmax cross-entropy loss. This simple methodology has been proven effective for meticulously balanced academic benchmark datasets. However, it is not applicable to the long-tailed data distributions in the real world, where it leads to the gradient imbalance issue and fails to ensure the Bayes optimal decision rule. To address these challenges, this paper presents a novel approach (BAPE) that provides a more precise theoretical estimation of the data distributions by \emph{explicitly} modeling the parameters of the posterior probabilities and solving them with point estimation. Consequently, our method directly learns the Bayes classifier without gradient descent based on Bayes' theorem, simultaneously alleviating the gradient imbalance and ensuring the Bayes optimal decision rule. Furthermore, we propose a straightforward yet effective \emph{distribution adjustment} technique. This method enables the Bayes classifier trained from the long-tailed training set to effectively adapt to the test data distribution with an arbitrary imbalance factor, thereby enhancing performance without incurring additional computational costs. In addition, we demonstrate the gains of our method are orthogonal to existing learning approaches for long-tailed scenarios, as they are mostly designed under the principle of \emph{implicitly} estimating the posterior probabilities. Extensive empirical evaluations on CIFAR-10-LT, CIFAR-100-LT, ImageNet-LT, and iNaturalist demonstrate that our method significantly improves the generalization performance of popular deep networks, despite its simplicity.
- Abstract(参考訳): ベイズ決定理論は、機械学習問題のリスクを最小化するための最適アプローチとしてベイズ分類器を提唱している。
現在のディープラーニングアルゴリズムは通常、Softmaxのクロスエントロピー損失を最小化することにより、後続確率を推定する \emph{implicitly} によって最適な分類を解く。
この単純な手法は、厳密にバランスのとれた学術ベンチマークデータセットに有効であることが証明されている。
しかし、これは現実世界の長期データ分布には当てはまらない。そこでは勾配不均衡の問題が発生し、ベイズ最適決定規則を確実にすることができない。
これらの課題に対処するため,本論文では, 後方確率のパラメータをモデル化し, 点推定で解くことによって, データの分布をより正確に理論的に推定する手法(BAPE)を提案する。
その結果、ベイズの定理に基づいて勾配降下のないベイズ分類器を直接学習し、同時に勾配不均衡を緩和し、ベイズ最適決定規則を確実にする。
さらに,直感的かつ効果的な 'emph{distribution adjust} 手法を提案する。
この方法は、長い尾のトレーニングセットから訓練されたベイズ分類器を任意の不均衡係数でテストデータ分布に効果的に適応させ、追加の計算コストを発生させることなく性能を向上させる。
さらに,提案手法の利点は,後部確率を推定する「emph{implicitly}」の原理に基づいて設計されているため,長期シナリオに対する既存の学習手法と直交することを示す。
CIFAR-10-LT, CIFAR-100-LT, ImageNet-LT, iNaturalist の大規模評価により, 単純性に拘わらず, 一般的な深層ネットワークの一般化性能を著しく向上させることを示す。
関連論文リスト
- Achieving $\widetilde{\mathcal{O}}(\sqrt{T})$ Regret in Average-Reward POMDPs with Known Observation Models [56.92178753201331]
平均逆無限水平POMDPを未知の遷移モデルで扱う。
この障壁を克服する斬新でシンプルな推定器を提示する。
論文 参考訳(メタデータ) (2025-01-30T22:29:41Z) - Learning the Optimal Stopping for Early Classification within Finite Horizons via Sequential Probability Ratio Test [11.199585259018459]
時系列の早期分類に最適な停止時間を提供するSPRT(Sequential Probability Ratio Test)による、時間に敏感な機械学習の利点。
入力長が有限である有限地平線シナリオでは、後ろ向きの誘導を必要とするため、最適停止規則を決定することが計算集約化される。
本稿では,SPRTベースのフレームワークであるFIRMBOUNDを紹介する。
論文 参考訳(メタデータ) (2025-01-29T23:54:46Z) - Universal Training of Neural Networks to Achieve Bayes Optimal Classification Accuracy [27.092821207089067]
ベイズ誤り率を達成するために,最小化によって分類モデルを適用したベイズ最適学習閾値(BOLT)の損失を導入する。
数値実験により、BOLTで訓練されたモデルが、クロスエントロピーのモデルと同等以上の性能を達成することが示された。
論文 参考訳(メタデータ) (2025-01-13T23:55:11Z) - Distributionally Robust Skeleton Learning of Discrete Bayesian Networks [9.46389554092506]
我々は、潜在的に破損したデータから一般的な離散ベイズネットワークの正確なスケルトンを学習する問題を考察する。
本稿では,有界ワッサーシュタイン距離(KL)における分布群に対する最も有害なリスクを,経験的分布へのKL分散を最適化することを提案する。
本稿では,提案手法が標準正規化回帰手法と密接に関連していることを示す。
論文 参考訳(メタデータ) (2023-11-10T15:33:19Z) - Provably Efficient Bayesian Optimization with Unknown Gaussian Process Hyperparameter Estimation [44.53678257757108]
目的関数の大域的最適値にサブ線形収束できる新しいBO法を提案する。
本手法では,BOプロセスにランダムなデータポイントを追加するために,マルチアームバンディット法 (EXP3) を用いる。
提案手法は, 様々な合成および実世界の問題に対して, 既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-12T03:35:45Z) - Scalable Bayesian Meta-Learning through Generalized Implicit Gradients [64.21628447579772]
Inlicit Bayesian Meta-learning (iBaML) 法は、学習可能な事前のスコープを広げるだけでなく、関連する不確実性も定量化する。
解析誤差境界は、明示的よりも一般化された暗黙的勾配の精度と効率を示すために確立される。
論文 参考訳(メタデータ) (2023-03-31T02:10:30Z) - Learning to Estimate Without Bias [57.82628598276623]
ガウスの定理は、重み付き最小二乗推定器は線形モデルにおける線形最小分散アンバイアスド推定(MVUE)であると述べている。
本稿では、バイアス制約のあるディープラーニングを用いて、この結果を非線形設定に拡張する第一歩を踏み出す。
BCEの第二の動機は、同じ未知の複数の推定値が平均化されてパフォーマンスが向上するアプリケーションにおいてである。
論文 参考訳(メタデータ) (2021-10-24T10:23:51Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - Fair Classification via Unconstrained Optimization [0.0]
我々はベイズ最適公正学習規則がベイズ回帰器に対するグループワイドしきい値の規則のままであることを示す。
提案アルゴリズムは,任意のブラックボックス機械学習モデルに適用可能である。
論文 参考訳(メタデータ) (2020-05-21T11:29:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。