論文の概要: A Survey of Deep Active Learning
- arxiv url: http://arxiv.org/abs/2009.00236v2
- Date: Sun, 5 Dec 2021 22:20:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 12:12:04.258683
- Title: A Survey of Deep Active Learning
- Title(参考訳): 深層アクティブラーニングに関する調査研究
- Authors: Pengzhen Ren, Yun Xiao, Xiaojun Chang, Po-Yao Huang, Zhihui Li, Brij
B. Gupta, Xiaojiang Chen and Xin Wang
- Abstract要約: アクティブラーニング(AL)は、最も少ないサンプルをマークすることで、モデルの性能向上を最大化しようとする。
ディープラーニング(DL)はデータに対して欲張りであり、大量のパラメータを最適化するために大量のデータ供給を必要とする。
ディープラーニング(Deep Active Learning, DAL)が誕生した。
- 参考スコア(独自算出の注目度): 54.376820959917005
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Active learning (AL) attempts to maximize the performance gain of the model
by marking the fewest samples. Deep learning (DL) is greedy for data and
requires a large amount of data supply to optimize massive parameters, so that
the model learns how to extract high-quality features. In recent years, due to
the rapid development of internet technology, we are in an era of information
torrents and we have massive amounts of data. In this way, DL has aroused
strong interest of researchers and has been rapidly developed. Compared with
DL, researchers have relatively low interest in AL. This is mainly because
before the rise of DL, traditional machine learning requires relatively few
labeled samples. Therefore, early AL is difficult to reflect the value it
deserves. Although DL has made breakthroughs in various fields, most of this
success is due to the publicity of the large number of existing annotation
datasets. However, the acquisition of a large number of high-quality annotated
datasets consumes a lot of manpower, which is not allowed in some fields that
require high expertise, especially in the fields of speech recognition,
information extraction, medical images, etc. Therefore, AL has gradually
received due attention. A natural idea is whether AL can be used to reduce the
cost of sample annotations, while retaining the powerful learning capabilities
of DL. Therefore, deep active learning (DAL) has emerged. Although the related
research has been quite abundant, it lacks a comprehensive survey of DAL. This
article is to fill this gap, we provide a formal classification method for the
existing work, and a comprehensive and systematic overview. In addition, we
also analyzed and summarized the development of DAL from the perspective of
application. Finally, we discussed the confusion and problems in DAL, and gave
some possible development directions for DAL.
- Abstract(参考訳): アクティブラーニング(AL)は、最も少ないサンプルをマークすることで、モデルの性能向上を最大化しようとする。
ディープラーニング(DL)はデータに対して欲張りであり、大量のパラメータを最適化するために大量のデータ供給を必要とするため、モデルが高品質な特徴を抽出する方法を学ぶ。
近年、インターネット技術の急速な発展により、情報流出の時代にあり、大量のデータが存在している。
このようにdlは研究者の強い関心を呼び起こし、急速に発展してきた。
DLと比較して、研究者はALに対する関心が比較的低い。
これは主にdlが登場する前、従来の機械学習ではラベル付きサンプルが比較的少ないためである。
したがって、早期ALはそれに値する価値を反映することが難しい。
dlは様々な分野でブレークスルーを遂げてきたが、その成功の大部分は既存の多くのアノテーションデータセットの公開によるものである。
しかし、大量の高品質な注釈付きデータセットの取得は、多くのマンパワーを消費するので、音声認識、情報抽出、医療画像などの分野において、高度な専門知識を必要とする分野では許されない。
そのため、ALは徐々に注目されている。
alは、dlの強力な学習能力を維持しながら、サンプルアノテーションのコスト削減に使用できるかどうかが自然な考えである。
そのため、深層学習(DAL)が出現している。
関連研究はかなり多いが、DALの総合的な調査は欠落している。
本稿では,このギャップを埋め,既存の作業の形式的分類方法,包括的かつ体系的な概要を提供する。
さらに,アプリケーションの観点からDALの開発状況を分析,要約した。
最後に,DALの混乱と問題点について考察し,DALの開発方向性について考察した。
関連論文リスト
- Learning with Less: Knowledge Distillation from Large Language Models via Unlabeled Data [54.934578742209716]
現実世界のNLPアプリケーションでは、Large Language Models (LLMs) は巨大なデータセットの広範なトレーニングのために、有望なソリューションを提供する。
LLKDは、教師と学生の両方の信号を組み込んだ適応的なサンプル選択法である。
総合的な実験により,LLKDは高いデータ効率で,様々なデータセットで優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-11-12T18:57:59Z) - A Survey on Deep Active Learning: Recent Advances and New Frontiers [27.07154361976248]
この研究は、ディープラーニングに基づくアクティブラーニング(DAL)の難しさを克服する上で、研究者にとって有用かつ迅速なガイドとなることを目的としている。
この手法は適用可能性の広さから人気が高まりつつあるが、特にディープラーニングに基づくアクティブラーニング(DAL)に関する調査論文は乏しいままである。
論文 参考訳(メタデータ) (2024-05-01T05:54:33Z) - Automatic Question-Answer Generation for Long-Tail Knowledge [65.11554185687258]
テールエンティティのための特別なQAデータセットを生成するための自動アプローチを提案する。
我々は,新たに生成された長尾QAデータセットに事前学習したLLMを用いて広範な実験を行う。
論文 参考訳(メタデータ) (2024-03-03T03:06:31Z) - Advancing Additive Manufacturing through Deep Learning: A Comprehensive
Review of Current Progress and Future Challenges [5.415870869037467]
本稿では, 添加性製造プロセスの改善にディープラーニングを適用した最近の研究を概観する。
本研究は, 広範囲の幾何学型用DLモデルの一般化, AMデータとDLモデルの両方の不確実性の管理, 生成モデルを組み込んだ限定的かつノイズの多いAMデータ問題への克服, AM用解釈可能なDLの可能性を明らかにすることに焦点を当てる。
論文 参考訳(メタデータ) (2024-03-01T17:01:47Z) - Zero-shot Retrieval: Augmenting Pre-trained Models with Search Engines [83.65380507372483]
大規模で事前訓練されたモデルは、問題を解決するのに必要なタスク固有のデータの量を劇的に削減するが、多くの場合、ドメイン固有のニュアンスを箱から取り出すのに失敗する。
本稿では,NLPとマルチモーダル学習の最近の進歩を活用して,検索エンジン検索による事前学習モデルを強化する方法について述べる。
論文 参考訳(メタデータ) (2023-11-29T05:33:28Z) - Deep Transfer Learning for Automatic Speech Recognition: Towards Better
Generalization [3.6393183544320236]
深層学習(DL)における音声認識の課題
大規模なトレーニングデータセットと高い計算とストレージリソースが必要です。
ディープトランスファーラーニング(DTL)はこれらの問題を克服するために導入された。
論文 参考訳(メタデータ) (2023-04-27T21:08:05Z) - Deep Learning in Healthcare: An In-Depth Analysis [1.892561703051693]
本稿では,Deep Learningモデルとそのバイオインフォマティクスおよび医療への応用について概説する。
また、DL研究の実施中に現われうるいくつかの重要な課題についても検討する。
論文 参考訳(メタデータ) (2023-02-12T20:55:34Z) - A Comparative Survey of Deep Active Learning [76.04825433362709]
Active Learning (AL)は、ラベル付けのための大きなラベル付けされていないデータプールからデータサンプルを順次選択することで、ラベル付けコストを削減するための一連のテクニックである。
ディープラーニング(DL)はデータハングリーであり、DLモデルのパフォーマンスは、より多くのトレーニングデータとともに単調にスケールする。
近年、Deep Active Learning (DAL) は、高価なラベリングコストを最小化しつつ、モデル性能を最大化するための実現可能なソリューションとして上昇している。
論文 参考訳(メタデータ) (2022-03-25T05:17:24Z) - Few-Cost Salient Object Detection with Adversarial-Paced Learning [95.0220555274653]
本稿では,少数のトレーニング画像にのみ手動アノテーションを応用して,効果的なサルエント物体検出モデルを学習することを提案する。
我々は,このタスクを,少額の有能な物体検出とみなし,少数のコストの学習シナリオを促進するために,APL(Adversarialpaced Learning)ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-05T14:15:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。