論文の概要: An Empirical Study on the Efficacy of Deep Active Learning for Image
Classification
- arxiv url: http://arxiv.org/abs/2212.03088v1
- Date: Wed, 30 Nov 2022 17:44:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 12:52:28.435878
- Title: An Empirical Study on the Efficacy of Deep Active Learning for Image
Classification
- Title(参考訳): 画像分類におけるdeep active learningの有効性に関する実証的研究
- Authors: Yu Li, Muxi Chen, Yannan Liu, Daojing He, and Qiang Xu
- Abstract要約: ディープアクティブラーニング(DAL)は、教師あり学習におけるラベリングコストを削減するための有望な方法として提唱されている。
既存のDAL手法の評価は異なる設定に基づいており、その結果は議論の余地がある。
本稿では,19の既存DAL手法を一様条件で総合的に評価する。
- 参考スコア(独自算出の注目度): 11.398892277968427
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Active Learning (DAL) has been advocated as a promising method to reduce
labeling costs in supervised learning. However, existing evaluations of DAL
methods are based on different settings, and their results are controversial.
To tackle this issue, this paper comprehensively evaluates 19 existing DAL
methods in a uniform setting, including traditional
fully-\underline{s}upervised \underline{a}ctive \underline{l}earning (SAL)
strategies and emerging \underline{s}emi-\underline{s}upervised
\underline{a}ctive \underline{l}earning (SSAL) techniques. We have several
non-trivial findings. First, most SAL methods cannot achieve higher accuracy
than random selection. Second, semi-supervised training brings significant
performance improvement compared to pure SAL methods. Third, performing data
selection in the SSAL setting can achieve a significant and consistent
performance improvement, especially with abundant unlabeled data. Our findings
produce the following guidance for practitioners: one should (i) apply SSAL
early and (ii) collect more unlabeled data whenever possible, for better model
performance.
- Abstract(参考訳): 教師付き学習におけるラベリングコストを削減する方法として,deep active learning(dal)が提唱されている。
しかし、既存のDAL手法の評価は異なる設定に基づいており、その結果は議論の余地がある。
本論では, 従来型の完全線量{s}upervised \underline{a}ctive \underline{l}earning (SAL) 戦略や, 新興線量{s}emi-\underline{s}upervised \underline{a}ctive \underline{l}earning (SSAL) 技術を含む, 統一された環境での19の既存DAL手法を総合的に評価する。
いくつかの非自明な発見がある。
第一に、ほとんどのSAL法はランダム選択よりも高い精度を達成できない。
第2に、半教師付きトレーニングは純粋なSALメソッドに比べて大幅なパフォーマンス向上をもたらす。
第3に、ssal設定でデータ選択を行うことは、特に豊富なラベルなしデータにおいて、重要かつ一貫したパフォーマンス改善を達成できる。
我々の知見は, 実践者に対して以下のガイダンスをもたらす。
(i)早期にSSALを適用する
(ii) 可能な限りラベルのないデータを収集し、モデルのパフォーマンスを向上する。
関連論文リスト
- Reward-Augmented Data Enhances Direct Preference Alignment of LLMs [56.24431208419858]
報奨条件付き大言語モデル(LLM)を導入し、データセット内の応答品質のスペクトル全体から学習する。
そこで本稿では,品質スコアに優先ペアを条件付け,報酬を加算したデータセットを構築する,効果的なデータレバーベリング手法を提案する。
論文 参考訳(メタデータ) (2024-10-10T16:01:51Z) - Uncertainty Aware Learning for Language Model Alignment [97.36361196793929]
異なるタスクシナリオのモデルアライメントを改善するために,不確実性認識学習(UAL)を提案する。
トレーニングのラベルの平滑化値を個々のサンプルの不確実性に応じて適応的に設定する。
広く使われているベンチマーク実験では、我々のUALは標準教師あり微調整よりも著しく優れています。
論文 参考訳(メタデータ) (2024-06-07T11:37:45Z) - Preference Fine-Tuning of LLMs Should Leverage Suboptimal, On-Policy Data [102.16105233826917]
好みラベルからの学習は、微調整された大きな言語モデルにおいて重要な役割を果たす。
好みの微調整には、教師付き学習、オンライン強化学習(RL)、コントラスト学習など、いくつかの異なるアプローチがある。
論文 参考訳(メタデータ) (2024-04-22T17:20:18Z) - Benchmarking of Query Strategies: Towards Future Deep Active Learning [0.0]
深層行動学習(DAL)のためのクエリ戦略をベンチマークする
DALは、クエリ戦略によって選択された高品質なサンプルに注釈を付けることで、アノテーションのコストを削減する。
論文 参考訳(メタデータ) (2023-12-10T04:17:16Z) - DST-Det: Simple Dynamic Self-Training for Open-Vocabulary Object Detection [72.25697820290502]
この研究は、ゼロショット分類によって潜在的に新しいクラスを特定するための単純かつ効率的な戦略を導入する。
このアプローチは、アノテーションやデータセット、再学習を必要とせずに、新しいクラスのリコールと精度を高めるセルフトレーニング戦略として言及する。
LVIS、V3Det、COCOを含む3つのデータセットに対する実証的な評価は、ベースラインのパフォーマンスを大幅に改善したことを示している。
論文 参考訳(メタデータ) (2023-10-02T17:52:24Z) - TiDAL: Learning Training Dynamics for Active Learning [10.832194534164142]
ラベルのないデータの不確実性を定量化するために,TiDAL(Training Dynamics for Active Learning)を提案する。
全ての大規模未ラベルデータのTDを追跡することは現実的ではないため、TiDALはラベル付きデータのTDを学習する追加の予測モジュールを使用する。
我々のTiDALは、最先端のAL手法と比較して、バランスの取れたベンチマークデータセットとバランスの取れていないベンチマークデータセットの両方で、より良い、あるいは同等のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2022-10-13T06:54:50Z) - A Comparative Survey of Deep Active Learning [76.04825433362709]
Active Learning (AL)は、ラベル付けのための大きなラベル付けされていないデータプールからデータサンプルを順次選択することで、ラベル付けコストを削減するための一連のテクニックである。
ディープラーニング(DL)はデータハングリーであり、DLモデルのパフォーマンスは、より多くのトレーニングデータとともに単調にスケールする。
近年、Deep Active Learning (DAL) は、高価なラベリングコストを最小化しつつ、モデル性能を最大化するための実現可能なソリューションとして上昇している。
論文 参考訳(メタデータ) (2022-03-25T05:17:24Z) - Revisiting the Performance of iALS on Item Recommendation Benchmarks [19.704506591363256]
行列分解は、暗黙の交互最小二乗(iALS)によって学習され、レコメンデーターシステム研究の出版物で一般的なベースラインである。
近年の研究では、その予測品質が現在の技術と競合していないことが示唆されている。
我々は、iALSが低性能であると報告された4つのよく研究されたベンチマークを再検討し、適切なチューニングを行うことで、iALSは競争力が高いことを示す。
論文 参考訳(メタデータ) (2021-10-26T21:30:57Z) - Trash to Treasure: Harvesting OOD Data with Cross-Modal Matching for
Open-Set Semi-Supervised Learning [101.28281124670647]
オープンセット半教師付き学習(Open-set SSL)では、ラベルなしデータにOOD(Out-of-distribution)サンプルを含む、難しいが実用的なシナリオを調査する。
我々は、OODデータの存在を効果的に活用し、特徴学習を増強する新しいトレーニングメカニズムを提案する。
我々のアプローチは、オープンセットSSLのパフォーマンスを大幅に向上させ、最先端技術よりも大きなマージンで性能を向上します。
論文 参考訳(メタデータ) (2021-08-12T09:14:44Z) - A Realistic Evaluation of Semi-Supervised Learning for Fine-Grained
Classification [38.68079253627819]
本ベンチマークは, avesおよびfungi分類のクラスをサンプリングして得られた2つの細粒度分類データセットからなる。
最近提案されたSSLメソッドは大きなメリットをもたらし、深いネットワークがゼロから訓練されたときにクラス外のデータを効果的にパフォーマンスを向上させることができます。
我々の研究は、現実的データセットの専門家による半教師付き学習は、現在文学で普及しているものとは異なる戦略を必要とする可能性があることを示唆している。
論文 参考訳(メタデータ) (2021-04-01T17:59:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。