論文の概要: Adapting Classifiers To Changing Class Priors During Deployment
- arxiv url: http://arxiv.org/abs/2309.01357v1
- Date: Mon, 4 Sep 2023 04:43:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 19:53:13.751109
- Title: Adapting Classifiers To Changing Class Priors During Deployment
- Title(参考訳): デプロイメント時のクラス優先度変更に対する分類器の適用
- Authors: Natnael Daba, Bruce McIntosh, Abhijit Mahalanobis
- Abstract要約: 従来の分類器は、全てのクラスが等しく存在するバランスの取れたデータセットを用いて訓練され、評価される。
クラスは一般的に不明であり、時間とともに変化することがある。
提案手法では, 提案手法に推定クラス事前を組み込むことで, 展開シナリオの文脈において, 実行時の精度を向上できることが示されている。
- 参考スコア(独自算出の注目度): 1.3812010983144802
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional classifiers are trained and evaluated using balanced data sets
in which all classes are equally present. Classifiers are now trained on large
data sets such as ImageNet, and are now able to classify hundreds (if not
thousands) of different classes. On one hand, it is desirable to train such
general-purpose classifier on a very large number of classes so that it
performs well regardless of the settings in which it is deployed. On the other
hand, it is unlikely that all classes known to the classifier will occur in
every deployment scenario, or that they will occur with the same prior
probability. In reality, only a relatively small subset of the known classes
may be present in a particular setting or environment. For example, a
classifier will encounter mostly animals if its deployed in a zoo or for
monitoring wildlife, aircraft and service vehicles at an airport, or various
types of automobiles and commercial vehicles if it is used for monitoring
traffic. Furthermore, the exact class priors are generally unknown and can vary
over time. In this paper, we explore different methods for estimating the class
priors based on the output of the classifier itself. We then show that
incorporating the estimated class priors in the overall decision scheme enables
the classifier to increase its run-time accuracy in the context of its
deployment scenario.
- Abstract(参考訳): 従来の分類器は、全てのクラスが等しく存在するバランスの取れたデータセットを用いて訓練され評価される。
分類器はimagenetなどの大規模データセットでトレーニングされ、数百(数千)の異なるクラスを分類できるようになった。
一方、このような汎用的な分類器を非常に多くのクラスで訓練することが望ましいので、デプロイされた設定に関係なくうまく動作する。
一方、分類器に知られているすべてのクラスがデプロイシナリオ毎に発生する可能性は低いし、同じ確率で発生する可能性は低い。
実際、既知のクラスの比較的小さなサブセットだけが特定の設定や環境に存在する可能性がある。
例えば、動物園に配備されたり、空港での野生動物、航空機、サービス車両の監視や、交通の監視に使用される様々な種類の自動車や商用車両の監視など、ほとんどの動物に遭遇する。
さらに、正確なクラスの優先順位は一般的に不明であり、時間とともに異なる可能性がある。
本稿では,分類器自体の出力に基づいて,クラス先行値を推定する様々な手法について検討する。
次に,評価されたクラス事前値を全体決定スキームに組み込むことで,デプロイシナリオのコンテキストにおける実行時の精度を高めることができることを示す。
関連論文リスト
- CA2: Class-Agnostic Adaptive Feature Adaptation for One-class
Classification [37.96353879426153]
一クラス分類のためのクラス非依存適応型特徴適応法(CA2)を提案する。
センターベース手法を未知のクラスに一般化し、事前学習ネットワークに存在する事前学習に基づいて、この目的を最適化する。
CA2は1から1024までのトレーニングデータクラスのOCCパフォーマンスを継続的に改善し、最先端のメソッドよりも優れています。
論文 参考訳(メタデータ) (2023-09-04T09:39:34Z) - Anomaly Detection using Ensemble Classification and Evidence Theory [62.997667081978825]
本稿では,アンサンブル分類とエビデンス理論を用いた新しい検出手法を提案する。
固体アンサンブル分類器を構築するためのプール選択戦略が提示される。
我々は異常検出手法の不確実性を利用する。
論文 参考訳(メタデータ) (2022-12-23T00:50:41Z) - GMM-IL: Image Classification using Incrementally Learnt, Independent
Probabilistic Models for Small Sample Sizes [0.4511923587827301]
本稿では,視覚的特徴学習と確率モデルを組み合わせた2段階アーキテクチャを提案する。
我々は、ソフトマックスヘッドを用いた等価ネットワークのベンチマークを上回り、サンプルサイズが12以下の場合の精度が向上し、3つの不均衡なクラスプロファイルに対する重み付きF1スコアが向上した。
論文 参考訳(メタデータ) (2022-12-01T15:19:42Z) - Do Deep Networks Transfer Invariances Across Classes? [123.84237389985236]
ニュアンス変換を学習するための生成的アプローチが、クラス間での不変性の伝達にどのように役立つかを示す。
この結果から,不均衡分布や細長い分布に対して分類器が不規則に一般化する理由が示唆された。
論文 参考訳(メタデータ) (2022-03-18T04:38:18Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - Predicting Classification Accuracy When Adding New Unobserved Classes [8.325327265120283]
そこで本研究では,より大規模で未観測のクラスに対して,期待する精度を推定するために,分類器の性能をどのように利用することができるかを検討する。
ニューラルネットワークに基づく頑健なアルゴリズム "CleaneX" を定式化し,任意のサイズのクラスに対して,そのような分類器の精度を推定する。
論文 参考訳(メタデータ) (2020-10-28T14:37:25Z) - Initial Classifier Weights Replay for Memoryless Class Incremental
Learning [11.230170401360633]
インクリメンタルラーニング(IL)は、人工システムがデータのストリームを扱う必要があり、常にすべてのデータにアクセスできない場合に有用である。
バニラ微調整バックボーンに基づく別のアプローチを提案する。
我々は、メモリレスインクリメンタルな学習環境で、4つの公開データセットで徹底的な評価を行う。
論文 参考訳(メタデータ) (2020-08-31T16:18:12Z) - Feature Space Augmentation for Long-Tailed Data [74.65615132238291]
実世界のデータは、各クラスの周波数が典型的に異なるため、長い尾の分布に従うことが多い。
データ再サンプリングと拡張に関するクラスバランス損失と高度な手法は、データの不均衡問題を解決するためのベストプラクティスのひとつです。
提案手法は,多種多様なサンプルを持つクラスから学習した特徴量を用いて,特徴空間における表現不足のクラスを増大させることによって,長鎖問題に対処する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-08-09T06:38:00Z) - Federated Learning with Only Positive Labels [71.63836379169315]
FedAwS(Federated Averaging with Spreadout)という,正のラベルのみを用いたトレーニングのための汎用フレームワークを提案する。
理論的にも経験的にも、FedAwSは、ユーザが負のラベルにアクセス可能な従来の学習のパフォーマンスとほぼ一致していることを示す。
論文 参考訳(メタデータ) (2020-04-21T23:35:02Z) - Rethinking Class-Balanced Methods for Long-Tailed Visual Recognition
from a Domain Adaptation Perspective [98.70226503904402]
現実世界のオブジェクトの周波数は、しばしば電力法則に従い、長い尾のクラス分布を持つデータセット間のミスマッチを引き起こす。
メタラーニング手法を用いて,クラス条件分布の違いを明示的に推定し,古典的なクラスバランス学習を強化することを提案する。
論文 参考訳(メタデータ) (2020-03-24T11:28:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。