論文の概要: A Comparative Survey of Deep Active Learning
- arxiv url: http://arxiv.org/abs/2203.13450v1
- Date: Fri, 25 Mar 2022 05:17:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-28 13:52:53.972856
- Title: A Comparative Survey of Deep Active Learning
- Title(参考訳): 深層アクティブラーニングの比較調査
- Authors: Xueying Zhan, Qingzhong Wang, Kuan-hao Huang, Haoyi Xiong, Dejing Dou,
Antoni B. Chan
- Abstract要約: Active Learning (AL)は、ラベル付けのための大きなラベル付けされていないデータプールからデータサンプルを順次選択することで、ラベル付けコストを削減するための一連のテクニックである。
ディープラーニング(DL)はデータハングリーであり、DLモデルのパフォーマンスは、より多くのトレーニングデータとともに単調にスケールする。
近年、Deep Active Learning (DAL) は、高価なラベリングコストを最小化しつつ、モデル性能を最大化するための実現可能なソリューションとして上昇している。
- 参考スコア(独自算出の注目度): 76.04825433362709
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Active Learning (AL) is a set of techniques for reducing labeling cost by
sequentially selecting data samples from a large unlabeled data pool for
labeling. Meanwhile, Deep Learning (DL) is data-hungry, and the performance of
DL models scales monotonically with more training data. Therefore, in recent
years, Deep Active Learning (DAL) has risen as feasible solutions for
maximizing model performance while minimizing the expensive labeling cost.
Abundant methods have sprung up and literature reviews of DAL have been
presented before. However, the performance comparison of different branches of
DAL methods under various tasks is still insufficient and our work fills this
gap. In this paper, we survey and categorize DAL-related work and construct
comparative experiments across frequently used datasets and DAL algorithms.
Additionally, we explore some factors (e.g., batch size, number of epochs in
the training process) that influence the efficacy of DAL, which provides better
references for researchers to design their own DAL experiments or carry out
DAL-related applications. We construct a DAL toolkit, DeepAL+, by
re-implementing many highly-cited DAL-related methods, and it will be released
to the public.
- Abstract(参考訳): active learning (al)は、ラベル付けのための大きなラベルのないデータプールからデータサンプルを順次選択することによって、ラベル付けコストを削減する一連のテクニックである。
一方、ディープラーニング(DL)はデータ処理であり、DLモデルの性能は、より多くのトレーニングデータとともに単調にスケールする。
そのため,近年DAL(Deep Active Learning)は,高額なラベル付けコストを最小化しつつ,モデル性能を最大化するための実現可能なソリューションとして成長している。
数多くの方法が登場し、dalに関する文献レビューが以前にも出されている。
しかし, DAL 手法の各種手法の性能比較は依然として不十分であり, このギャップを埋める作業を行っている。
本稿では,DALに関連する研究を調査,分類し,頻繁に使用されるデータセットとDALアルゴリズムの比較実験を構築する。
さらに、DALの有効性に影響を与えるいくつかの要因(例えば、バッチサイズ、トレーニングプロセスにおけるエポック数など)を探索し、研究者が独自のDAL実験を設計したり、DAL関連のアプリケーションを実行したりできるようにする。
我々は、多くの高度に暗黙的なDAL関連手法を再実装し、DALツールキットであるDeepAL+を構築し、それを一般公開する。
関連論文リスト
- LLMaAA: Making Large Language Models as Active Annotators [32.57011151031332]
本稿では,大規模な言語モデルをアノテータとして利用し,それをアクティブな学習ループに配置して,アノテートを効率的に行うLLMaAAを提案する。
我々は、エンティティ認識と関係抽出という、2つの古典的NLPタスクの実験と分析を行う。
LLMaAAでは、LLM生成ラベルからトレーニングされたタスク固有のモデルが、数百の注釈付きサンプルで教師より優れている。
論文 参考訳(メタデータ) (2023-10-30T14:54:15Z) - Learning Objective-Specific Active Learning Strategies with Attentive
Neural Processes [72.75421975804132]
学び アクティブラーニング(LAL)は、アクティブラーニング戦略自体を学ぶことを提案し、与えられた設定に適応できるようにする。
能動学習問題の対称性と独立性を利用した新しい分類法を提案する。
私たちのアプローチは、筋電図から学ぶことに基づいており、モデルに標準ではない目的に適応する能力を与えます。
論文 参考訳(メタデータ) (2023-09-11T14:16:37Z) - An Empirical Study on the Efficacy of Deep Active Learning for Image
Classification [11.398892277968427]
ディープアクティブラーニング(DAL)は、教師あり学習におけるラベリングコストを削減するための有望な方法として提唱されている。
既存のDAL手法の評価は異なる設定に基づいており、その結果は議論の余地がある。
本稿では,19の既存DAL手法を一様条件で総合的に評価する。
論文 参考訳(メタデータ) (2022-11-30T17:44:59Z) - TiDAL: Learning Training Dynamics for Active Learning [10.832194534164142]
ラベルのないデータの不確実性を定量化するために,TiDAL(Training Dynamics for Active Learning)を提案する。
全ての大規模未ラベルデータのTDを追跡することは現実的ではないため、TiDALはラベル付きデータのTDを学習する追加の予測モジュールを使用する。
我々のTiDALは、最先端のAL手法と比較して、バランスの取れたベンチマークデータセットとバランスの取れていないベンチマークデータセットの両方で、より良い、あるいは同等のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2022-10-13T06:54:50Z) - Pareto Optimization for Active Learning under Out-of-Distribution Data
Scenarios [79.02009938011447]
本研究では,未ラベルデータプールからバッチサイズを固定した未ラベルサンプルの最適なサブセットを選択するサンプリング手法を提案する。
実験の結果,従来の機械学習(ML)タスクとディープラーニング(DL)タスクの両方において,その効果が示された。
論文 参考訳(メタデータ) (2022-07-04T04:11:44Z) - Collaborative Intelligence Orchestration: Inconsistency-Based Fusion of
Semi-Supervised Learning and Active Learning [60.26659373318915]
アクティブラーニング(AL)と半教師付きラーニング(SSL)は2つの効果があるが、しばしば孤立している。
本稿では、SSL-ALの潜在的な優位性をさらに調査するために、革新的な一貫性に基づく仮想aDvErialアルゴリズムを提案する。
2つの実世界のケーススタディは、提案したデータサンプリングアルゴリズムの適用と展開の実践的な産業価値を可視化する。
論文 参考訳(メタデータ) (2022-06-07T13:28:43Z) - A Lagrangian Duality Approach to Active Learning [119.36233726867992]
トレーニングデータのサブセットのみをラベル付けするバッチアクティブな学習問題を考察する。
制約付き最適化を用いて学習問題を定式化し、各制約はラベル付きサンプルにモデルの性能を拘束する。
数値実験により,提案手法は最先端の能動学習法と同等かそれ以上に機能することを示した。
論文 参考訳(メタデータ) (2022-02-08T19:18:49Z) - ALdataset: a benchmark for pool-based active learning [1.9308522511657449]
アクティブ・ラーニング(AL)は機械学習(ML)のサブフィールドであり、学習アルゴリズムは新しいデータポイントをラベル付けするためにユーザ/オーラルを対話的にクエリすることで、トレーニングサンプルの少ない精度で学習できる。
プールベースのALは多くのMLタスクにおいて、ラベルのないデータが豊富にあるが、ラベルを得るのは難しい。
提案手法は,最近提案された手法と古典的手法の両方で,様々なアクティブな学習戦略の実験結果を示し,その結果から洞察を得た。
論文 参考訳(メタデータ) (2020-10-16T04:37:29Z) - A Survey of Deep Active Learning [54.376820959917005]
アクティブラーニング(AL)は、最も少ないサンプルをマークすることで、モデルの性能向上を最大化しようとする。
ディープラーニング(DL)はデータに対して欲張りであり、大量のパラメータを最適化するために大量のデータ供給を必要とする。
ディープラーニング(Deep Active Learning, DAL)が誕生した。
論文 参考訳(メタデータ) (2020-08-30T04:28:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。