論文の概要: AlphaNet: Improving Long-Tail Classification By Combining Classifiers
- arxiv url: http://arxiv.org/abs/2008.07073v2
- Date: Wed, 26 Jul 2023 04:03:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-27 16:57:07.184133
- Title: AlphaNet: Improving Long-Tail Classification By Combining Classifiers
- Title(参考訳): AlphaNet: 分類器の組み合わせによる長距離分類の改善
- Authors: Nadine Chang, Jayanth Koushik, Aarti Singh, Martial Hebert, Yu-Xiong
Wang, Michael J. Tarr
- Abstract要約: ロングテール学習の手法は、データ貧弱な(希少な)クラスのパフォーマンス向上に重点を置いている。
多くのエラーは、視覚的に類似した頻繁なクラスとして希少な項目の誤分類によるものである。
既存モデルに適用可能なAlphaNetを導入し,レアクラスの分類器に対するポストホック補正を行う。
- 参考スコア(独自算出の注目度): 44.5124310374697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Methods in long-tail learning focus on improving performance for data-poor
(rare) classes; however, performance for such classes remains much lower than
performance for more data-rich (frequent) classes. Analyzing the predictions of
long-tail methods for rare classes reveals that a large number of errors are
due to misclassification of rare items as visually similar frequent classes. To
address this problem, we introduce AlphaNet, a method that can be applied to
existing models, performing post hoc correction on classifiers of rare classes.
Starting with a pre-trained model, we find frequent classes that are closest to
rare classes in the model's representation space and learn weights to update
rare class classifiers with a linear combination of frequent class classifiers.
AlphaNet, applied to several models, greatly improves test accuracy for rare
classes in multiple long-tailed datasets, with very little change to overall
accuracy. Our method also provides a way to control the trade-off between rare
class and overall accuracy, making it practical for long-tail classification in
the wild.
- Abstract(参考訳): ロングテール学習の手法は、データポーア (rare) クラスのパフォーマンス向上に重点を置いているが、そのようなクラスのパフォーマンスは、よりデータリッチ (frequent) クラスのパフォーマンスよりもはるかに低いままである。
レアクラスのロングテールメソッドの予測を分析すると、多くのエラーがレアアイテムを視覚的に類似した頻繁なクラスとして誤分類していることが分かる。
この問題に対処するために,既存のモデルに適用可能なalphanetを紹介し,レアクラスの分類器に対してポストホック補正を行う。
事前学習モデルから、モデルの表現空間における希少なクラスに最も近い頻繁なクラスを見つけ、希少なクラス分類器を頻繁なクラス分類器の線形結合で更新するための重みを学習する。
AlphaNetは、複数のモデルに適用され、複数の長い尾を持つデータセットで稀なクラスのテスト精度を大幅に改善する。
また,本手法は,レアクラスと総合的精度のトレードオフを制御し,野生のロングテール分類に有効であることを示す。
関連論文リスト
- Understanding the Detrimental Class-level Effects of Data Augmentation [63.1733767714073]
最適な平均精度を達成するには、ImageNetで最大20%の個々のクラスの精度を著しく損なうコストがかかる。
本稿では,DAがクラスレベルの学習力学とどのように相互作用するかを理解するためのフレームワークを提案する。
そこで本研究では, クラス条件拡張戦略により, 負の影響を受けるクラスの性能が向上することを示す。
論文 参考訳(メタデータ) (2023-12-07T18:37:43Z) - Are Deep Sequence Classifiers Good at Non-Trivial Generalization? [4.941630596191806]
バイナリシーケンス分類問題について検討し、異なる観点からモデルキャリブレーションを考察する。
対象クラスが稀な問題であるスパースシーケンス分類に注目し,3つのディープラーニングシーケンス分類モデルを比較した。
このバイナリ設定では、ディープラーニングモデルが、非自明な方法で基礎となるクラス分布を学習することができることが示唆されている。
論文 参考訳(メタデータ) (2022-10-24T10:01:06Z) - Long-tail Recognition via Compositional Knowledge Transfer [60.03764547406601]
末尾クラスの少数ショット問題に対処する長尾認識のための新しい戦略を導入する。
我々の目標は、情報に富んだ共通クラスから得られた知識を、意味的に類似しているがデータに富む稀なクラスに伝達することである。
実験結果から,本手法は稀なクラスにおいて,堅牢な共通クラス性能を維持しつつ,大幅な性能向上を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-12-13T15:48:59Z) - Improving Calibration for Long-Tailed Recognition [68.32848696795519]
このようなシナリオにおけるキャリブレーションとパフォーマンスを改善する2つの方法を提案します。
異なるサンプルによるデータセットバイアスに対して,シフトバッチ正規化を提案する。
提案手法は,複数の長尾認識ベンチマークデータセットに新しいレコードをセットする。
論文 参考訳(メタデータ) (2021-04-01T13:55:21Z) - One vs Previous and Similar Classes Learning -- A Comparative Study [2.208242292882514]
この研究は、トレーニングされたモデルをスクラッチから再トレーニングすることなく更新できる3つの学習パラダイムを提案する。
その結果、提案されたパラダイムは更新時のベースラインよりも高速であり、そのうち2つはスクラッチからのトレーニング、特に大規模なデータセットでも高速であることが示された。
論文 参考訳(メタデータ) (2021-01-05T00:28:38Z) - Predicting Classification Accuracy When Adding New Unobserved Classes [8.325327265120283]
そこで本研究では,より大規模で未観測のクラスに対して,期待する精度を推定するために,分類器の性能をどのように利用することができるかを検討する。
ニューラルネットワークに基づく頑健なアルゴリズム "CleaneX" を定式化し,任意のサイズのクラスに対して,そのような分類器の精度を推定する。
論文 参考訳(メタデータ) (2020-10-28T14:37:25Z) - Feature Space Augmentation for Long-Tailed Data [74.65615132238291]
実世界のデータは、各クラスの周波数が典型的に異なるため、長い尾の分布に従うことが多い。
データ再サンプリングと拡張に関するクラスバランス損失と高度な手法は、データの不均衡問題を解決するためのベストプラクティスのひとつです。
提案手法は,多種多様なサンプルを持つクラスから学習した特徴量を用いて,特徴空間における表現不足のクラスを増大させることによって,長鎖問題に対処する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-08-09T06:38:00Z) - Rethinking Class-Balanced Methods for Long-Tailed Visual Recognition
from a Domain Adaptation Perspective [98.70226503904402]
現実世界のオブジェクトの周波数は、しばしば電力法則に従い、長い尾のクラス分布を持つデータセット間のミスマッチを引き起こす。
メタラーニング手法を用いて,クラス条件分布の違いを明示的に推定し,古典的なクラスバランス学習を強化することを提案する。
論文 参考訳(メタデータ) (2020-03-24T11:28:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。