論文の概要: Selective Classification Via Neural Network Training Dynamics
- arxiv url: http://arxiv.org/abs/2205.13532v1
- Date: Thu, 26 May 2022 17:51:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-27 13:43:54.932085
- Title: Selective Classification Via Neural Network Training Dynamics
- Title(参考訳): ニューラルネットワーク学習ダイナミクスによる選択的分類
- Authors: Stephan Rabanser, Anvith Thudi, Kimia Hamidieh, Adam Dziedzic, Nicolas
Papernot
- Abstract要約: 本研究では,モデルのトレーニング力学を学習することで,最先端の選択的分類性能を達成できることを実証する。
提案手法は,典型的な選択分類ベンチマークにおいて,最先端の精度/カバレッジトレードオフを実現する。
- 参考スコア(独自算出の注目度): 26.58209894993386
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Selective classification is the task of rejecting inputs a model would
predict incorrectly on through a trade-off between input space coverage and
model accuracy. Current methods for selective classification impose constraints
on either the model architecture or the loss function; this inhibits their
usage in practice. In contrast to prior work, we show that state-of-the-art
selective classification performance can be attained solely from studying the
(discretized) training dynamics of a model. We propose a general framework
that, for a given test input, monitors metrics capturing the disagreement with
the final predicted label over intermediate models obtained during training; we
then reject data points exhibiting too much disagreement at late stages in
training. In particular, we instantiate a method that tracks when the label
predicted during training stops disagreeing with the final predicted label. Our
experimental evaluation shows that our method achieves state-of-the-art
accuracy/coverage trade-offs on typical selective classification benchmarks.
For example, we improve coverage on CIFAR-10/SVHN by 10.1%/1.5% respectively at
a fixed target error of 0.5%.
- Abstract(参考訳): 選択的分類とは、入力空間のカバレッジとモデルの精度のトレードオフを通じて、モデルが誤って予測する入力を拒否するタスクである。
現在の選択的分類法は、モデルアーキテクチャまたは損失関数のいずれかに制約を課している。
先行研究とは対照的に,モデルの(離散化された)トレーニングダイナミクスを研究すれば,最先端の選択的分類性能が得られることを示す。
本稿では,学習中に得られた中間モデルに対する最終予測ラベルの不一致を計測するメトリクスを,与えられたテスト入力に対して監視する一般的なフレームワークを提案する。
特に、トレーニング中に予測されたラベルが最終予測されたラベルと一致しないことをトラックする手法をインスタンス化する。
実験により,本手法は,典型的な選択分類ベンチマークにおいて,最先端の精度/カバレッジトレードオフを実現することを示す。
例えば、CIFAR-10/SVHNのカバレッジをそれぞれ10.1%/1.5%改善し、固定目標誤差は0.5%である。
関連論文リスト
- Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Uncertainty-aware Sampling for Long-tailed Semi-supervised Learning [89.98353600316285]
擬似ラベルサンプリングのモデル化プロセスに不確実性を導入し、各クラスにおけるモデル性能が異なる訓練段階によって異なることを考慮した。
このアプローチにより、モデルは異なる訓練段階における擬似ラベルの不確かさを認識でき、それによって異なるクラスの選択閾値を適応的に調整できる。
FixMatchのような他の手法と比較して、UDTSは自然シーン画像データセットの精度を少なくとも5.26%、1.75%、9.96%、1.28%向上させる。
論文 参考訳(メタデータ) (2024-01-09T08:59:39Z) - Leveraging Uncertainty Estimates To Improve Classifier Performance [4.4951754159063295]
バイナリ分類では、正のクラスのモデルスコアが、アプリケーション要求に基づいて選択されたしきい値を超えるかどうかに基づいて、インスタンスのラベルを予測する。
しかし、モデルスコアは真の肯定率と一致しないことが多い。
これは特に、クラス間の差分サンプリングを含むトレーニングや、トレインとテスト設定間の分散ドリフトがある場合に当てはまる。
論文 参考訳(メタデータ) (2023-11-20T12:40:25Z) - Geometry-Aware Adaptation for Pretrained Models [15.715395029966812]
本稿では、argmaxをFr'echet平均に置き換え、標準予測規則のドロップイン置換を提案する。
提案したアプローチであるLokiは、ImageNet上のSimCLRよりも29.7%向上しています。
そのような指標が得られない場合、Lokiはクラス埋め込みから自己派生メトリクスを使用でき、事前訓練されたゼロショットモデルの10.5%の改善が得られる。
論文 参考訳(メタデータ) (2023-07-23T04:48:41Z) - Large Class Separation is not what you need for Relational
Reasoning-based OOD Detection [12.578844450586]
Out-Of-Distribution (OOD) 検出法はセマンティックノベルティを識別して解を提供する。
これらの手法の多くは、既知のデータの学習段階を利用しており、これは正規性の概念を捉えるためのモデル(または微調整)を訓練することを意味する。
実行可能な代替手段は、大きな事前訓練されたモデルによって生成された埋め込み空間の類似性を評価することであり、それ以上の学習は行わない。
論文 参考訳(メタデータ) (2023-07-12T14:10:15Z) - Rethinking Precision of Pseudo Label: Test-Time Adaptation via
Complementary Learning [10.396596055773012]
本稿では,テスト時間適応性を高めるための新しい補完学習手法を提案する。
テスト時適応タスクでは、ソースドメインからの情報は通常利用できない。
我々は,相補ラベルのリスク関数がバニラ損失式と一致することを強調した。
論文 参考訳(メタデータ) (2023-01-15T03:36:33Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Self-Trained One-class Classification for Unsupervised Anomaly Detection [56.35424872736276]
異常検出(AD)は、製造から医療まで、さまざまな分野に応用されている。
本研究は、トレーニングデータ全体がラベル付けされておらず、正規サンプルと異常サンプルの両方を含む可能性のある、教師なしAD問題に焦点を当てる。
この問題に対処するため,データリファインメントによる堅牢な一級分類フレームワークを構築した。
本手法は6.3AUCと12.5AUCの平均精度で最先端の1クラス分類法より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-11T01:36:08Z) - Solving Long-tailed Recognition with Deep Realistic Taxonomic Classifier [68.38233199030908]
ロングテール認識は、現実世界のシナリオにおける自然な非一様分散データに取り組む。
モダンは人口密度の高いクラスではうまく機能するが、そのパフォーマンスはテールクラスでは著しく低下する。
Deep-RTCは、リアリズムと階層的予測を組み合わせたロングテール問題の新しい解法として提案されている。
論文 参考訳(メタデータ) (2020-07-20T05:57:42Z) - Uncertainty-aware Self-training for Text Classification with Few Labels [54.13279574908808]
本研究は,アノテーションのボトルネックを軽減するための半教師あり学習手法の1つとして,自己学習について研究する。
本稿では,基礎となるニューラルネットワークの不確実性推定を取り入れて,自己学習を改善する手法を提案する。
本手法では,クラス毎に20~30個のラベル付きサンプルをトレーニングに利用し,完全教師付き事前学習言語モデルの3%以内で検証を行う。
論文 参考訳(メタデータ) (2020-06-27T08:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。