論文の概要: Identifying Wrongly Predicted Samples: A Method for Active Learning
- arxiv url: http://arxiv.org/abs/2010.06890v1
- Date: Wed, 14 Oct 2020 09:00:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 12:26:01.392378
- Title: Identifying Wrongly Predicted Samples: A Method for Active Learning
- Title(参考訳): 誤予測サンプルの同定:アクティブラーニングのための方法
- Authors: Rahaf Aljundi, Nikolay Chumerin and Daniel Olmeda Reino
- Abstract要約: 本稿では,不確実性を超えた単純なサンプル選択基準を提案する。
予測されたサンプルを正しく識別するために、最先端の結果とより良いレートを示す。
- 参考スコア(独自算出の注目度): 6.976600214375139
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State-of-the-art machine learning models require access to significant amount
of annotated data in order to achieve the desired level of performance. While
unlabelled data can be largely available and even abundant, annotation process
can be quite expensive and limiting. Under the assumption that some samples are
more important for a given task than others, active learning targets the
problem of identifying the most informative samples that one should acquire
annotations for. Instead of the conventional reliance on model uncertainty as a
proxy to leverage new unknown labels, in this work we propose a simple sample
selection criterion that moves beyond uncertainty. By first accepting the model
prediction and then judging its effect on the generalization error, we can
better identify wrongly predicted samples. We further present an approximation
to our criterion that is very efficient and provides a similarity based
interpretation. In addition to evaluating our method on the standard benchmarks
of active learning, we consider the challenging yet realistic scenario of
imbalanced data where categories are not equally represented. We show
state-of-the-art results and better rates at identifying wrongly predicted
samples. Our method is simple, model agnostic and relies on the current model
status without the need for re-training from scratch.
- Abstract(参考訳): 最先端の機械学習モデルは、望まれるパフォーマンスのレベルを達成するために、大量の注釈付きデータにアクセスする必要がある。
ラベルなしのデータはほとんど利用可能で、豊富であるが、アノテーションプロセスは非常に高価で制限される可能性がある。
あるタスクに対して、あるサンプルが他のタスクよりも重要であるという仮定の下で、アクティブな学習は、アノテーションを取得するべき最も情報に富むサンプルを特定する問題をターゲットにしている。
本研究では,新しい未知ラベルを利用するためのプロキシとして,モデルの不確実性に従来から依存する代わりに,不確実性を超えた単純なサンプル選択基準を提案する。
まずモデル予測を受理し,その一般化誤差への影響を判断することにより,誤った予測サンプルを同定する。
我々はさらに,非常に効率的で類似性に基づく解釈を提供する基準の近似を提示する。
アクティブラーニングの標準ベンチマーク上での手法の評価に加えて,カテゴリが等しく表現されない不均衡データの現実的シナリオについても検討する。
最新の結果と誤った予測サンプルの同定率を示す。
提案手法は単純で,モデルに依存しず,スクラッチから再トレーニングする必要がなく,現在のモデル状態に依存している。
関連論文リスト
- Virtual Category Learning: A Semi-Supervised Learning Method for Dense
Prediction with Extremely Limited Labels [63.16824565919966]
本稿では,ラベルの修正を伴わずに,混乱したサンプルを積極的に使用することを提案する。
仮想カテゴリー(VC)は、モデルの最適化に安全に貢献できるように、各混乱したサンプルに割り当てられる。
私たちの興味深い発見は、密集した視覚タスクにおけるVC学習の利用に注目しています。
論文 参考訳(メタデータ) (2023-12-02T16:23:52Z) - Late Stopping: Avoiding Confidently Learning from Mislabeled Examples [61.00103151680946]
そこで本研究では,DNNの長期学習プロセスを通じて,本質的な頑健な学習能力を生かした新しいフレームワークであるLatlas Stoppingを提案する。
誤ラベルとクリーンな例は、それらが一貫して正しく分類されるために必要なエポックの数に相違があることを実証的に観察する。
ベンチマークシミュレーションと実世界のノイズデータセットによる実験結果から,提案手法は最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-26T12:43:25Z) - Personalized Interpretable Classification [8.806213269230057]
我々は、新たなデータマイニング問題として、パーソナライズされた解釈可能な分類を正式に導入する第一歩を踏み出します。
実データ集合に関する一連の実証的研究を行う。
我々のアルゴリズムは、これら最先端(SOTA)の解釈可能な分類器と同じレベルの予測精度を達成できる。
論文 参考訳(メタデータ) (2023-02-06T01:59:16Z) - Rethinking Precision of Pseudo Label: Test-Time Adaptation via
Complementary Learning [10.396596055773012]
本稿では,テスト時間適応性を高めるための新しい補完学習手法を提案する。
テスト時適応タスクでは、ソースドメインからの情報は通常利用できない。
我々は,相補ラベルのリスク関数がバニラ損失式と一致することを強調した。
論文 参考訳(メタデータ) (2023-01-15T03:36:33Z) - Temporal Output Discrepancy for Loss Estimation-based Active Learning [65.93767110342502]
ラベルのないサンプルが高損失を伴っていると信じられている場合に,データアノテーションのオラクルに問い合わせる,新しいディープラーニングアプローチを提案する。
本手法は,画像分類やセマンティックセグメンテーションタスクにおける最先端の能動学習手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2022-12-20T19:29:37Z) - Prototype-Anchored Learning for Learning with Imperfect Annotations [83.7763875464011]
不完全な注釈付きデータセットからバイアスのない分類モデルを学ぶことは困難である。
本稿では,様々な学習に基づく分類手法に容易に組み込むことができるプロトタイプ・アンコレッド学習法を提案する。
我々は,PALがクラス不均衡学習および耐雑音学習に与える影響を,合成および実世界のデータセットに関する広範な実験により検証した。
論文 参考訳(メタデータ) (2022-06-23T10:25:37Z) - Uncertainty Estimation for Language Reward Models [5.33024001730262]
言語モデルは、テキストコーパスの教師なしトレーニングからさまざまな能力を学ぶことができる。
人間がラベル付きデータを提供するよりも選択肢を選択する方が簡単であり、事前の作業はそのような選好比較から報酬モデルをトレーニングすることで最先端のパフォーマンスを達成した。
能動的学習とリスク-逆強化学習を用いてサンプル効率とロバスト性を向上させる不確実性推定によるこれらの問題に対処することを模索する。
論文 参考訳(メタデータ) (2022-03-14T20:13:21Z) - Optimizing Active Learning for Low Annotation Budgets [6.753808772846254]
ディープラーニングでは、アクティブな学習は通常、微調整によって連続した深層モデルを更新する反復的なプロセスとして実装される。
移行学習にインスパイアされたアプローチを用いてこの問題に対処する。
本稿では,ALプロセスの反復性を利用してより堅牢なサンプルを抽出する新しい取得関数を提案する。
論文 参考訳(メタデータ) (2022-01-18T18:53:10Z) - Minimax Active Learning [61.729667575374606]
アクティブラーニングは、人間のアノテーションによってラベル付けされる最も代表的なサンプルをクエリすることによって、ラベル効率の高いアルゴリズムを開発することを目指している。
現在のアクティブラーニング技術は、最も不確実なサンプルを選択するためにモデルの不確実性に頼るか、クラスタリングを使うか、最も多様なラベルのないサンプルを選択するために再構築する。
我々は,不確実性と多様性を両立させる半教師付きミニマックスエントロピーに基づく能動学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-12-18T19:03:40Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。