論文の概要: LADA: Look-Ahead Data Acquisition via Augmentation for Active Learning
- arxiv url: http://arxiv.org/abs/2011.04194v3
- Date: Tue, 17 Nov 2020 02:41:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 00:16:31.186929
- Title: LADA: Look-Ahead Data Acquisition via Augmentation for Active Learning
- Title(参考訳): LADA: アクティブラーニングのための拡張によるルックアヘッドデータ獲得
- Authors: Yoon-Yeong Kim, Kyungwoo Song, JoonHo Jang, Il-Chul Moon
- Abstract要約: 本稿では,Look-Ahead Data Acquisition by augmentation(LAD)を提案する。
LADAは、1)ラベルなしのデータインスタンスの選択と2)データ拡張によって生成される仮想データインスタンスの両方を考慮する。
LADAの性能は近年の増補ベースラインや買収ベースラインよりも大幅に改善されている。
- 参考スコア(独自算出の注目度): 24.464022706979886
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Active learning effectively collects data instances for training deep
learning models when the labeled dataset is limited and the annotation cost is
high. Besides active learning, data augmentation is also an effective technique
to enlarge the limited amount of labeled instances. However, the potential gain
from virtual instances generated by data augmentation has not been considered
in the acquisition process of active learning yet. Looking ahead the effect of
data augmentation in the process of acquisition would select and generate the
data instances that are informative for training the model. Hence, this paper
proposes Look-Ahead Data Acquisition via augmentation, or LADA, to integrate
data acquisition and data augmentation. LADA considers both 1) unlabeled data
instance to be selected and 2) virtual data instance to be generated by data
augmentation, in advance of the acquisition process. Moreover, to enhance the
informativeness of the virtual data instances, LADA optimizes the data
augmentation policy to maximize the predictive acquisition score, resulting in
the proposal of InfoMixup and InfoSTN. As LADA is a generalizable framework, we
experiment with the various combinations of acquisition and augmentation
methods. The performance of LADA shows a significant improvement over the
recent augmentation and acquisition baselines which were independently applied
to the benchmark datasets.
- Abstract(参考訳): アクティブラーニングは、ラベル付きデータセットが制限され、アノテーションコストが高い場合に、ディープラーニングモデルをトレーニングするためのデータインスタンスを効果的に収集する。
アクティブラーニングに加えて、データ拡張はラベル付きインスタンスの限られた量を拡張する効果的なテクニックでもある。
しかし、データ拡張によって生成された仮想インスタンスによる潜在的な利益は、アクティブラーニングの獲得過程においてまだ考慮されていない。
買収プロセスにおけるデータ拡張の効果を展望すると、モデルのトレーニングに有用なデータインスタンスを選択して生成する。
そこで本稿では,データ取得とデータ拡張を統合するために,augmentation(lada)によるルックアヘッドデータ取得を提案する。
LADAは両方を考える
1)選択すべきラベルのないデータインスタンスと
2) 取得プロセスに先立って,データ拡張によって生成される仮想データインスタンス。
さらに、仮想データインスタンスの情報性を高めるため、LADAはデータ拡張ポリシーを最適化し、予測獲得スコアを最大化し、InfoMixupとInfoSTNが提案される。
LADAは一般化可能なフレームワークであるため、我々は獲得法と拡張法の様々な組み合わせを実験する。
ladaのパフォーマンスは、ベンチマークデータセットに独立して適用された最近の拡張および取得ベースラインを大きく改善したことを示している。
関連論文リスト
- Learn from the Learnt: Source-Free Active Domain Adaptation via Contrastive Sampling and Visual Persistence [60.37934652213881]
ドメイン適応(DA)は、ソースドメインから関連するターゲットドメインへの知識伝達を容易にする。
本稿では、ソースデータフリーなアクティブドメイン適応(SFADA)という実用的なDAパラダイムについて検討する。
本稿では,学習者学習(LFTL)というSFADAの新たなパラダイムを紹介し,学習した学習知識を事前学習モデルから活用し,余分なオーバーヘッドを伴わずにモデルを積極的に反復する。
論文 参考訳(メタデータ) (2024-07-26T17:51:58Z) - A Comprehensive Survey on Data Augmentation [55.355273602421384]
データ拡張(Data augmentation)は、既存のデータサンプルを操作することによって高品質な人工データを生成する技術である。
既存の文献調査では、特定のモダリティデータにのみ焦点が当てられている。
本稿では,異なる共通データモダリティのためのデータ拡張技術を含む,より啓蒙的な分類法を提案する。
論文 参考訳(メタデータ) (2024-05-15T11:58:08Z) - LESS: Selecting Influential Data for Targeted Instruction Tuning [64.78894228923619]
本稿では,データの影響を推定し,命令データ選択のための低ランクグレーディエント類似度探索を行うアルゴリズムであるLESSを提案する。
LESS選択したデータの5%のトレーニングは、さまざまなダウンストリームタスクにわたる完全なデータセットでのトレーニングよりも優れています。
我々の方法は、意図した下流アプリケーションに必要な推論スキルを識別するために、表面的なフォームキューを超えています。
論文 参考訳(メタデータ) (2024-02-06T19:18:04Z) - A Pre-trained Data Deduplication Model based on Active Learning [13.495903601474819]
汚れたデータ"問題は、ビッグデータの効果的な適用を著しく制限することができる。
本研究では,能動学習に基づく事前学習型重複解法モデルを提案する。
提案モデルでは、重複データ識別のための従来のSOTA(State-of-the-art)よりも優れている。
論文 参考訳(メタデータ) (2023-07-31T03:56:46Z) - Towards Adaptable and Interactive Image Captioning with Data
Augmentation and Episodic Memory [8.584932159968002]
本稿では,画像キャプションのためのIMLパイプラインを提案する。これにより,事前学習したモデルをユーザ入力に基づく新しいデータ分布に漸進的に適応させることができる。
データの増大は結果が悪化するが、たとえ比較的少量のデータが利用可能であったとしても、エピソードメモリは、これまで見られたクラスタからの知識を維持するための効果的な戦略である。
論文 参考訳(メタデータ) (2023-06-06T08:38:10Z) - LiDAR dataset distillation within bayesian active learning framework:
Understanding the effect of data augmentation [63.20765930558542]
アクティブラーニング(AL)は、アノテーションコストとデータセットサイズの削減に対処するため、最近再び注目されている。
本稿では,大規模なセマンティックKITTIデータセットの1/4分の1でALベースのデータセット蒸留を原理的に評価する。
我々は、選択したデータセット構成からのサンプルの60%のみを使用して、データ拡張が完全なデータセット精度を達成することを観察した。
論文 参考訳(メタデータ) (2022-02-06T00:04:21Z) - Data Shapley Valuation for Efficient Batch Active Learning [21.76249748709411]
Active Data Shapley(ADS)は、バッチアクティブラーニングのためのフィルタリングレイヤーです。
ADSは、ラベルのないデータのプールが現実世界の異常を示す場合に特に効果的であることを示す。
論文 参考訳(メタデータ) (2021-04-16T18:53:42Z) - Adaptive Weighting Scheme for Automatic Time-Series Data Augmentation [79.47771259100674]
データ拡張のための2つのサンプル適応自動重み付けスキームを提案する。
提案手法を大規模でノイズの多い財務データセットとUCRアーカイブからの時系列データセット上で検証する。
金融データセットでは、取引戦略と組み合わせた手法が50 $%$以上の年間収益の改善につながることを示し、時系列データでは、データセットの半分以上で最新モデルを上回るパフォーマンスを発揮し、他のものと同様の精度を達成しています。
論文 参考訳(メタデータ) (2021-02-16T17:50:51Z) - Improving the Performance of Fine-Grain Image Classifiers via Generative
Data Augmentation [0.5161531917413706]
我々は、ロバスト生成アドリアルネットワーク(DAPPER GAN)の熟練した事前学習からデータ拡張を開発する。
DAPPER GANは、トレーニングイメージの新しいビューを自動的に生成するML分析支援ツールである。
本手法をStanford Carsデータセット上で実験的に評価し,車体形状とモデル分類精度の向上を実証した。
論文 参考訳(メタデータ) (2020-08-12T15:29:11Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。