論文の概要: IALE: Imitating Active Learner Ensembles
- arxiv url: http://arxiv.org/abs/2007.04637v3
- Date: Tue, 22 Sep 2020 07:03:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 03:21:57.455463
- Title: IALE: Imitating Active Learner Ensembles
- Title(参考訳): IALE: アクティブラーナーの集まりを省略する
- Authors: Christoffer Loeffler and Christopher Mutschler
- Abstract要約: 本研究では,アクティブな学習サイクルの各段階において,最高の専門家の選択を模倣する模倣学習手法を提案する。
DAGGERを使用して、データセット上でポリシーをトレーニングし、その後、同様のドメインのデータセットに適用します。
- 参考スコア(独自算出の注目度): 1.8655840060559172
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Active learning (AL) prioritizes the labeling of the most informative data
samples. However, the performance of AL heuristics depends on the structure of
the underlying classifier model and the data. We propose an imitation learning
scheme that imitates the selection of the best expert heuristic at each stage
of the AL cycle in a batch-mode pool-based setting. We use DAGGER to train the
policy on a dataset and later apply it to datasets from similar domains. With
multiple AL heuristics as experts, the policy is able to reflect the choices of
the best AL heuristics given the current state of the AL process. Our
experiment on well-known datasets show that we both outperform state of the art
imitation learners and heuristics.
- Abstract(参考訳): アクティブラーニング(AL)は最も重要なデータサンプルのラベル付けを優先する。
しかし、ALヒューリスティックスの性能は、基礎となる分類器モデルとデータの構造に依存する。
本稿では,ALサイクルの各段階で,バッチモードプールをベースとした最適なヒューリスティックの選択を模倣する模倣学習手法を提案する。
DAGGERを使用して、データセット上でポリシーをトレーニングし、その後、同様のドメインのデータセットに適用します。
複数のALヒューリスティックを専門家として、このポリシーはALプロセスの現在の状況から、最高のALヒューリスティックの選択を反映することができる。
良く知られたデータセットを用いた実験により、私たちはともに美術模倣学習者やヒューリスティックスよりも優れています。
関連論文リスト
- BAL: Balancing Diversity and Novelty for Active Learning [53.289700543331925]
多様な不確実なデータのバランスをとるために適応的なサブプールを構築する新しいフレームワークであるBalancing Active Learning (BAL)を導入する。
我々のアプローチは、広く認識されているベンチマークにおいて、確立されたすべてのアクティブな学習方法より1.20%優れています。
論文 参考訳(メタデータ) (2023-12-26T08:14:46Z) - On Dataset Transferability in Active Learning for Transformers [4.779196219827508]
アクティブラーニング(AL)は、モデルラーニングに最も有用な例を問うことでラベリングコストを削減することを目的としている。
本稿では,テキスト分類におけるアクティブなデータセットの転送可能性の問題について考察する。
取得シーケンスの類似性は、モデルの選択よりもALメソッドの選択に強く影響されていることを示す。
論文 参考訳(メタデータ) (2023-05-16T21:10:54Z) - Evaluating the effect of data augmentation and BALD heuristics on
distillation of Semantic-KITTI dataset [63.20765930558542]
Active Learningは、自律運転データセットにおけるLiDAR知覚タスクに対して、比較的未調査のままである。
本研究では,データセット蒸留やコアサブセット選択のタスクに適用したベイズ能動学習手法を評価する。
また,ベイジアンALを用いたデータセット蒸留におけるデータ拡張の適用効果についても検討した。
論文 参考訳(メタデータ) (2023-02-21T13:56:47Z) - MoBYv2AL: Self-supervised Active Learning for Image Classification [57.4372176671293]
画像分類のための自己教師型アクティブラーニングフレームワークであるMoBYv2ALを提案する。
私たちの貢献は、最も成功した自己教師付き学習アルゴリズムであるMoBYをALパイプラインに持ち上げることです。
近年のAL法と比較すると,最先端の結果が得られている。
論文 参考訳(メタデータ) (2023-01-04T10:52:02Z) - Is margin all you need? An extensive empirical study of active learning
on tabular data [66.18464006872345]
我々は,OpenML-CC18ベンチマークを用いて,69の実世界のデータセット上での各種能動学習アルゴリズムの性能を解析した。
意外なことに、古典的なマージンサンプリング技術は、現在の最先端技術を含む、他のすべてのものよりも優れている。
論文 参考訳(メタデータ) (2022-10-07T21:18:24Z) - ImitAL: Learned Active Learning Strategy on Synthetic Data [30.595138995552748]
ImitALはドメインに依存しない新しいクエリ戦略であり、ALを学習からランクまでの問題としてエンコードする。
我々はImitALを、純粋に合成されたデータセット上で大規模にシミュレーションされたALで訓練する。
ImitALがうまくトレーニングされたことを示すため、13の異なるデータセット上での戦略の比較を広範囲に評価した。
論文 参考訳(メタデータ) (2022-08-24T16:17:53Z) - Pareto Optimization for Active Learning under Out-of-Distribution Data
Scenarios [79.02009938011447]
本研究では,未ラベルデータプールからバッチサイズを固定した未ラベルサンプルの最適なサブセットを選択するサンプリング手法を提案する。
実験の結果,従来の機械学習(ML)タスクとディープラーニング(DL)タスクの両方において,その効果が示された。
論文 参考訳(メタデータ) (2022-07-04T04:11:44Z) - Active learning for reducing labeling effort in text classification
tasks [3.8424737607413153]
アクティブラーニング(英: Active Learning, AL)は、使用済みモデルが最も有益とみなすデータのみを使用することでラベル付けの労力を削減することを目的としたパラダイムである。
本稿では,異なる不確実性に基づくアルゴリズム BERT$_base$ を比較した実験的検討を行った。
その結果,BERT$base$で不確実性に基づくALを用いることで,データのランダムサンプリングに優れることがわかった。
論文 参考訳(メタデータ) (2021-09-10T13:00:36Z) - On Initial Pools for Deep Active Learning [18.615560631982355]
アクティブラーニング(AL)技術は、与えられたタスクのためにモデルをトレーニングするために必要なトレーニングデータを最小限にすることを目的としている。
プールベースのALテクニックは、最初は小さな初期ラベル付きプールから始まり、次にラベル付けのための最も有益なサンプルのバッチを反復的に選択する。
知的にサンプル化された初期ラベル付きプールが深いAL性能を向上できるかどうかを検討する。
論文 参考訳(メタデータ) (2020-11-30T11:22:31Z) - DAGA: Data Augmentation with a Generation Approach for Low-resource
Tagging Tasks [88.62288327934499]
線形化ラベル付き文に基づいて訓練された言語モデルを用いた新しい拡張手法を提案する。
本手法は, 教師付き設定と半教師付き設定の両方に適用可能である。
論文 参考訳(メタデータ) (2020-11-03T07:49:15Z) - MetAL: Active Semi-Supervised Learning on Graphs via Meta Learning [2.903711704663904]
分類モデルの将来の性能を直接改善する未ラベルのインスタンスを選択するためのALアプローチであるMetALを提案する。
我々は、MetALが既存の最先端ALアルゴリズムより効率良く優れていることを示す。
論文 参考訳(メタデータ) (2020-07-22T06:59:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。