論文の概要: Trustworthy Long-Tailed Classification
- arxiv url: http://arxiv.org/abs/2111.09030v1
- Date: Wed, 17 Nov 2021 10:52:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-18 19:16:01.763764
- Title: Trustworthy Long-Tailed Classification
- Title(参考訳): 信頼できるロングテール分類
- Authors: Bolian Li, Zongbo Han, Haining Li, Huazhu Fu and Changqing Zhang
- Abstract要約: 本稿では,分類と不確実性評価を共同で行うために,Trustworthy Long-tailed Classification (TLC)法を提案する。
我々のTLCは、各専門家のエビデンスに基づく不確実性(EvU)とエビデンスを取得し、デプスター・シェーファー・エビデンス理論(DST)の下でこれらの不確実性とエビデンスを組み合わせる。
実験の結果,提案したTLCは最先端の手法よりも優れており,信頼性の高い不確実性に優れていた。
- 参考スコア(独自算出の注目度): 41.45744960383575
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Classification on long-tailed distributed data is a challenging problem,
which suffers from serious class-imbalance and accordingly unpromising
performance especially on tail classes. Recently, the ensembling based methods
achieve the state-of-the-art performance and show great potential. However,
there are two limitations for current methods. First, their predictions are not
trustworthy for failure-sensitive applications. This is especially harmful for
the tail classes where the wrong predictions is basically frequent. Second,
they assign unified numbers of experts to all samples, which is redundant for
easy samples with excessive computational cost. To address these issues, we
propose a Trustworthy Long-tailed Classification (TLC) method to jointly
conduct classification and uncertainty estimation to identify hard samples in a
multi-expert framework. Our TLC obtains the evidence-based uncertainty (EvU)
and evidence for each expert, and then combines these uncertainties and
evidences under the Dempster-Shafer Evidence Theory (DST). Moreover, we propose
a dynamic expert engagement to reduce the number of engaged experts for easy
samples and achieve efficiency while maintaining promising performances.
Finally, we conduct comprehensive experiments on the tasks of classification,
tail detection, OOD detection and failure prediction. The experimental results
show that the proposed TLC outperforms the state-of-the-art methods and is
trustworthy with reliable uncertainty.
- Abstract(参考訳): 長い尾を持つ分散データの分類は、深刻なクラス不均衡に悩まされ、特に尾のクラスの性能が低下する問題である。
近年,アンサンブルに基づく手法は最先端の性能を実現し,大きな可能性を秘めている。
しかし、現在の方法には2つの制限がある。
第一に、彼らの予測は障害に敏感なアプリケーションには信頼できない。
これは、誤った予測が基本的に頻繁に発生するテールクラスにとって特に有害である。
第二に、すべてのサンプルに統一された専門家を割り当て、計算コストの過大な簡単なサンプルには冗長である。
これらの問題に対処するために,多専門フレームワークにおけるハードサンプルの同定のために,分類と不確実性評価を共同で行う,Trustworthy Long-tailed Classification (TLC)法を提案する。
我々のtlcは各専門家の証拠に基づく不確実性(evu)と証拠を取得し、デンプスター・シェーファー証拠理論(dst)の下でこれらの不確実性と証拠を組み合わせる。
さらに,提案手法では,容易にサンプルを採取できる専門家の数を削減し,有望な性能を維持しつつ効率性を達成するための動的専門家参加を提案する。
最後に, 分類, テール検出, OOD検出, 故障予測のタスクに関する総合的な実験を行った。
実験の結果,提案したTLCは最先端の手法よりも優れており,信頼性の高い不確実性に優れていた。
関連論文リスト
- Uncertainty Quantification via Hölder Divergence for Multi-View Representation Learning [18.419742575630217]
本稿では,H"older Divergence (HD)に基づく新しいアルゴリズムを導入し,多視点学習の信頼性を高める。
デンプスター・シェーファー理論を通じて、異なるモダリティからの不確実性の統合により、包括的な結果が生成される。
数学的には、HDは実際のデータ分布とモデルの予測分布の間の距離'をよりよく測定できることを証明している。
論文 参考訳(メタデータ) (2024-10-29T04:29:44Z) - Uncertainty-Calibrated Test-Time Model Adaptation without Forgetting [55.17761802332469]
テスト時間適応(TTA)は、与えられたモデルw.r.t.を任意のテストサンプルに適用することにより、トレーニングデータとテストデータの間の潜在的な分散シフトに取り組むことを目指している。
事前の手法は各テストサンプルに対してバックプロパゲーションを実行するため、多くのアプリケーションに対して許容できない最適化コストがかかる。
本稿では, 有効サンプル選択基準を策定し, 信頼性および非冗長なサンプルを同定する, 効率的なアンチフォッティングテスト時間適応法を提案する。
論文 参考訳(メタデータ) (2024-03-18T05:49:45Z) - Revisiting Confidence Estimation: Towards Reliable Failure Prediction [53.79160907725975]
多くの信頼度推定法は誤分類誤りを検出するのに有害である。
本稿では, 最先端の故障予測性能を示す平坦な最小値を求めることにより, 信頼性ギャップを拡大することを提案する。
論文 参考訳(メタデータ) (2024-03-05T11:44:14Z) - Adaptive Uncertainty Estimation via High-Dimensional Testing on Latent
Representations [28.875819909902244]
不確実性推定は、訓練されたディープニューラルネットワークの信頼性を評価することを目的としている。
既存の不確実性推定アプローチは、低次元分布仮定に依存している。
本研究では,不確実性推定のためのデータ適応型高次元仮説テストを用いた新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-25T12:22:18Z) - Binary Classification with Confidence Difference [100.08818204756093]
本稿では,信頼性差分法 (ConfDiff) という,弱教師付き二項分類問題について考察する。
本稿では,この問題に対処するためのリスク一貫性のあるアプローチを提案し,推定誤差が最適収束率と一致することを示す。
また,整合性や収束率も証明されたオーバーフィッティング問題を緩和するためのリスク補正手法も導入する。
論文 参考訳(メタデータ) (2023-10-09T11:44:50Z) - Conservative Prediction via Data-Driven Confidence Minimization [70.93946578046003]
機械学習の安全性クリティカルな応用においては、モデルが保守的であることが望ましいことが多い。
本研究では,不確実性データセットに対する信頼性を最小化するデータ駆動信頼性最小化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:05:36Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - Augmentation by Counterfactual Explanation -- Fixing an Overconfident
Classifier [11.233334009240947]
極めて正確だが過信的なモデルは、ヘルスケアや自動運転といった重要なアプリケーションへのデプロイには不適である。
本稿では,過度に信頼された分類器の修正に反事実的説明を適用することを提案する。
論文 参考訳(メタデータ) (2022-10-21T18:53:16Z) - An Empirical Evaluation on Robustness and Uncertainty of Regularization
Methods [43.25086015530892]
ディープニューラルネットワーク(DNN)は、人間と根本的に異なる振る舞いをする。
入力にぼやけなどの小さな汚職が適用されると、簡単に予測を変更できる。
彼らは分布外サンプル(不適切な不確実性尺度)に自信を持って予測する。
論文 参考訳(メタデータ) (2020-03-09T01:15:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。