論文の概要: AutoAL: Automated Active Learning with Differentiable Query Strategy Search
- arxiv url: http://arxiv.org/abs/2410.13853v1
- Date: Thu, 17 Oct 2024 17:59:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-18 13:18:46.690695
- Title: AutoAL: Automated Active Learning with Differentiable Query Strategy Search
- Title(参考訳): AutoAL: クエリ戦略検索によるアクティブラーニングの自動化
- Authors: Yifeng Wang, Xueying Zhan, Siyu Huang,
- Abstract要約: 本研究は, AutoAL という,最初の識別可能な能動学習戦略探索手法を提案する。
任意のタスクに対して、SearchNetとFitNetはラベル付きデータを使って反復的に最適化され、そのタスクで候補ALアルゴリズムのセットがどれだけうまく機能するかを学ぶ。
AutoALは、すべての候補ALアルゴリズムや他の選択ALアプローチと比較して、常に優れた精度を達成する。
- 参考スコア(独自算出の注目度): 18.23964720426325
- License:
- Abstract: As deep learning continues to evolve, the need for data efficiency becomes increasingly important. Considering labeling large datasets is both time-consuming and expensive, active learning (AL) provides a promising solution to this challenge by iteratively selecting the most informative subsets of examples to train deep neural networks, thereby reducing the labeling cost. However, the effectiveness of different AL algorithms can vary significantly across data scenarios, and determining which AL algorithm best fits a given task remains a challenging problem. This work presents the first differentiable AL strategy search method, named AutoAL, which is designed on top of existing AL sampling strategies. AutoAL consists of two neural nets, named SearchNet and FitNet, which are optimized concurrently under a differentiable bi-level optimization framework. For any given task, SearchNet and FitNet are iteratively co-optimized using the labeled data, learning how well a set of candidate AL algorithms perform on that task. With the optimal AL strategies identified, SearchNet selects a small subset from the unlabeled pool for querying their annotations, enabling efficient training of the task model. Experimental results demonstrate that AutoAL consistently achieves superior accuracy compared to all candidate AL algorithms and other selective AL approaches, showcasing its potential for adapting and integrating multiple existing AL methods across diverse tasks and domains. Code will be available at: https://github.com/haizailache999/AutoAL.
- Abstract(参考訳): ディープラーニングが進化し続ければ、データ効率の必要性がますます重要になる。
大規模なデータセットのラベル付けは時間とコストの両方を考慮すると、アクティブラーニング(AL)は、ディープニューラルネットワークをトレーニングするための最も情報に富んだサブセットを反復的に選択することで、この課題に対する有望な解決策を提供する。
しかし、異なるALアルゴリズムの有効性はデータシナリオによって大きく異なり、どのALアルゴリズムが与えられたタスクに最も適しているかを決定することは難しい問題である。
本研究は,既存のALサンプリング戦略に基づいて設計したAutoALという,最初の微分可能なAL戦略探索手法を提案する。
AutoALはSearchNetとFitNetという2つのニューラルネットで構成される。
任意のタスクに対して、SearchNetとFitNetはラベル付きデータを使って反復的に最適化され、そのタスクで候補ALアルゴリズムのセットがどれだけうまく機能するかを学ぶ。
最適なAL戦略を特定することで、SearchNetはアノテーションをクエリするためにラベルのないプールから小さなサブセットを選択し、タスクモデルの効率的なトレーニングを可能にします。
実験の結果、AutoALは全ての候補ALアルゴリズムや他の選択ALアプローチと比較して常に優れた精度を達成し、多様なタスクやドメインにまたがる複数の既存ALメソッドの適応と統合の可能性を示している。
コードは、https://github.com/haizailache999/AutoAL.comから入手できる。
関連論文リスト
- Meta-Learning from Learning Curves for Budget-Limited Algorithm Selection [11.409496019407067]
予算制限のシナリオでは、アルゴリズム候補を慎重に選択し、それを訓練するための予算を割り当てることが不可欠である。
本稿では,エージェントが十分に訓練されるまで待たずに,最も有望なアルゴリズムを学習する過程において,エージェントが選択しなければならない新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-10-10T08:09:58Z) - Algorithm Selection for Deep Active Learning with Imbalanced Datasets [11.902019233549474]
アクティブな学習は、ディープネットワークのトレーニングに必要なラベル付きサンプルの数を減らすことを目的としている。
アクティブな学習戦略が与えられたアプリケーションでうまく機能するか、どれが最善であるかを事前に知るのは難しい。
深層能動学習のための適応型アルゴリズム選択手法を提案する。
論文 参考訳(メタデータ) (2023-02-14T19:59:49Z) - HARRIS: Hybrid Ranking and Regression Forests for Algorithm Selection [75.84584400866254]
両アプローチの強みを両アプローチの弱さを緩和しつつ組み合わせ, 特殊林を利用した新しいアルゴリズムセレクタを提案する。
HARRISの決定は、ハイブリッドランキングと回帰損失関数に基づいて最適化された木を作成する森林モデルに基づいている。
論文 参考訳(メタデータ) (2022-10-31T14:06:11Z) - Towards Automated Imbalanced Learning with Deep Hierarchical
Reinforcement Learning [57.163525407022966]
不均衡学習はデータマイニングにおいて基本的な課題であり、各クラスにトレーニングサンプルの不均等な比率が存在する。
オーバーサンプリングは、少数民族のための合成サンプルを生成することによって、不均衡な学習に取り組む効果的な手法である。
我々は,異なるレベルの意思決定を共同で最適化できる自動オーバーサンプリングアルゴリズムであるAutoSMOTEを提案する。
論文 参考訳(メタデータ) (2022-08-26T04:28:01Z) - ImitAL: Learned Active Learning Strategy on Synthetic Data [30.595138995552748]
ImitALはドメインに依存しない新しいクエリ戦略であり、ALを学習からランクまでの問題としてエンコードする。
我々はImitALを、純粋に合成されたデータセット上で大規模にシミュレーションされたALで訓練する。
ImitALがうまくトレーニングされたことを示すため、13の異なるデータセット上での戦略の比較を広範囲に評価した。
論文 参考訳(メタデータ) (2022-08-24T16:17:53Z) - Pareto Optimization for Active Learning under Out-of-Distribution Data
Scenarios [79.02009938011447]
本研究では,未ラベルデータプールからバッチサイズを固定した未ラベルサンプルの最適なサブセットを選択するサンプリング手法を提案する。
実験の結果,従来の機械学習(ML)タスクとディープラーニング(DL)タスクの両方において,その効果が示された。
論文 参考訳(メタデータ) (2022-07-04T04:11:44Z) - DAAS: Differentiable Architecture and Augmentation Policy Search [107.53318939844422]
この研究は、ニューラルネットワークとデータ拡張のカップリングの可能性を検討し、それらを共同で検索する効果的なアルゴリズムを提案する。
CIFAR-10では97.91%、ImageNetデータセットでは76.6%の精度で97.91%の精度を達成し、検索アルゴリズムの優れた性能を示している。
論文 参考訳(メタデータ) (2021-09-30T17:15:17Z) - Active learning for reducing labeling effort in text classification
tasks [3.8424737607413153]
アクティブラーニング(英: Active Learning, AL)は、使用済みモデルが最も有益とみなすデータのみを使用することでラベル付けの労力を削減することを目的としたパラダイムである。
本稿では,異なる不確実性に基づくアルゴリズム BERT$_base$ を比較した実験的検討を行った。
その結果,BERT$base$で不確実性に基づくALを用いることで,データのランダムサンプリングに優れることがわかった。
論文 参考訳(メタデータ) (2021-09-10T13:00:36Z) - Towards Optimally Efficient Tree Search with Deep Learning [76.64632985696237]
本稿では,線形モデルから信号整数を推定する古典整数最小二乗問題について検討する。
問題はNPハードであり、信号処理、バイオインフォマティクス、通信、機械学習といった様々な応用でしばしば発生する。
本稿では, 深いニューラルネットワークを用いて, 単純化されたメモリバウンドA*アルゴリズムの最適推定を推定し, HATSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-07T08:00:02Z) - Online Model Selection for Reinforcement Learning with Function
Approximation [50.008542459050155]
我々は、$tildeO(L5/6 T2/3)$ regretで最適な複雑性に適応するメタアルゴリズムを提案する。
また、メタアルゴリズムは、インスタンス依存の後悔境界を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-11-19T10:00:54Z) - MetAL: Active Semi-Supervised Learning on Graphs via Meta Learning [2.903711704663904]
分類モデルの将来の性能を直接改善する未ラベルのインスタンスを選択するためのALアプローチであるMetALを提案する。
我々は、MetALが既存の最先端ALアルゴリズムより効率良く優れていることを示す。
論文 参考訳(メタデータ) (2020-07-22T06:59:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。