論文の概要: IALE: Imitating Active Learner Ensembles
- arxiv url: http://arxiv.org/abs/2007.04637v3
- Date: Tue, 22 Sep 2020 07:03:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 03:21:57.455463
- Title: IALE: Imitating Active Learner Ensembles
- Title(参考訳): IALE: アクティブラーナーの集まりを省略する
- Authors: Christoffer Loeffler and Christopher Mutschler
- Abstract要約: 本研究では,アクティブな学習サイクルの各段階において,最高の専門家の選択を模倣する模倣学習手法を提案する。
DAGGERを使用して、データセット上でポリシーをトレーニングし、その後、同様のドメインのデータセットに適用します。
- 参考スコア(独自算出の注目度): 1.8655840060559172
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Active learning (AL) prioritizes the labeling of the most informative data
samples. However, the performance of AL heuristics depends on the structure of
the underlying classifier model and the data. We propose an imitation learning
scheme that imitates the selection of the best expert heuristic at each stage
of the AL cycle in a batch-mode pool-based setting. We use DAGGER to train the
policy on a dataset and later apply it to datasets from similar domains. With
multiple AL heuristics as experts, the policy is able to reflect the choices of
the best AL heuristics given the current state of the AL process. Our
experiment on well-known datasets show that we both outperform state of the art
imitation learners and heuristics.
- Abstract(参考訳): アクティブラーニング(AL)は最も重要なデータサンプルのラベル付けを優先する。
しかし、ALヒューリスティックスの性能は、基礎となる分類器モデルとデータの構造に依存する。
本稿では,ALサイクルの各段階で,バッチモードプールをベースとした最適なヒューリスティックの選択を模倣する模倣学習手法を提案する。
DAGGERを使用して、データセット上でポリシーをトレーニングし、その後、同様のドメインのデータセットに適用します。
複数のALヒューリスティックを専門家として、このポリシーはALプロセスの現在の状況から、最高のALヒューリスティックの選択を反映することができる。
良く知られたデータセットを用いた実験により、私たちはともに美術模倣学習者やヒューリスティックスよりも優れています。
関連論文リスト
- Reward-Augmented Data Enhances Direct Preference Alignment of LLMs [56.24431208419858]
報奨条件付き大言語モデル(LLM)を導入し、データセット内の応答品質のスペクトル全体から学習する。
そこで本稿では,品質スコアに優先ペアを条件付け,報酬を加算したデータセットを構築する,効果的なデータレバーベリング手法を提案する。
論文 参考訳(メタデータ) (2024-10-10T16:01:51Z) - Active Learning of Molecular Data for Task-Specific Objectives [5.307709290041582]
アクティブラーニング(AL)は、特にデータ効率のよい機械学習アプローチであることを約束している。
本稿では,3つの分子データセットと2つの共通科学課題に対して,系統的なAL性能評価を行う。
その結果, ALの性能は, ターゲット分子の相対分布に依存することがわかった。
論文 参考訳(メタデータ) (2024-08-20T20:50:29Z) - Uncertainty Aware Learning for Language Model Alignment [97.36361196793929]
異なるタスクシナリオのモデルアライメントを改善するために,不確実性認識学習(UAL)を提案する。
トレーニングのラベルの平滑化値を個々のサンプルの不確実性に応じて適応的に設定する。
広く使われているベンチマーク実験では、我々のUALは標準教師あり微調整よりも著しく優れています。
論文 参考訳(メタデータ) (2024-06-07T11:37:45Z) - Monte Carlo Tree Search Boosts Reasoning via Iterative Preference Learning [55.96599486604344]
本稿では,Large Language Models (LLMs) の推論能力向上を目的とした,反復的な選好学習プロセスによるアプローチを提案する。
我々は、MCTS(Monte Carlo Tree Search)を用いて好みデータを反復的に収集し、そのルックアヘッド機能を利用して、インスタンスレベルの報酬をよりきめ細かいステップレベルの信号に分解する。
提案アルゴリズムはDPO(Direct Preference Optimization)を用いて,新たに生成されたステップレベルの優先度データを用いてLCMポリシーを更新する。
論文 参考訳(メタデータ) (2024-05-01T11:10:24Z) - On the Fragility of Active Learners for Text Classification [0.0]
アクティブラーニング(AL)技術は、学習に最も価値のあるインスタンスを反復的に選択することで、ラベル付け予算を最適に活用する。
データセットに最も適したALアルゴリズムを選択するための所定の基準はない。
論文 参考訳(メタデータ) (2024-03-23T07:16:23Z) - BAL: Balancing Diversity and Novelty for Active Learning [53.289700543331925]
多様な不確実なデータのバランスをとるために適応的なサブプールを構築する新しいフレームワークであるBalancing Active Learning (BAL)を導入する。
我々のアプローチは、広く認識されているベンチマークにおいて、確立されたすべてのアクティブな学習方法より1.20%優れています。
論文 参考訳(メタデータ) (2023-12-26T08:14:46Z) - Is margin all you need? An extensive empirical study of active learning
on tabular data [66.18464006872345]
我々は,OpenML-CC18ベンチマークを用いて,69の実世界のデータセット上での各種能動学習アルゴリズムの性能を解析した。
意外なことに、古典的なマージンサンプリング技術は、現在の最先端技術を含む、他のすべてのものよりも優れている。
論文 参考訳(メタデータ) (2022-10-07T21:18:24Z) - ImitAL: Learned Active Learning Strategy on Synthetic Data [30.595138995552748]
ImitALはドメインに依存しない新しいクエリ戦略であり、ALを学習からランクまでの問題としてエンコードする。
我々はImitALを、純粋に合成されたデータセット上で大規模にシミュレーションされたALで訓練する。
ImitALがうまくトレーニングされたことを示すため、13の異なるデータセット上での戦略の比較を広範囲に評価した。
論文 参考訳(メタデータ) (2022-08-24T16:17:53Z) - Active learning for reducing labeling effort in text classification
tasks [3.8424737607413153]
アクティブラーニング(英: Active Learning, AL)は、使用済みモデルが最も有益とみなすデータのみを使用することでラベル付けの労力を削減することを目的としたパラダイムである。
本稿では,異なる不確実性に基づくアルゴリズム BERT$_base$ を比較した実験的検討を行った。
その結果,BERT$base$で不確実性に基づくALを用いることで,データのランダムサンプリングに優れることがわかった。
論文 参考訳(メタデータ) (2021-09-10T13:00:36Z) - DAGA: Data Augmentation with a Generation Approach for Low-resource
Tagging Tasks [88.62288327934499]
線形化ラベル付き文に基づいて訓練された言語モデルを用いた新しい拡張手法を提案する。
本手法は, 教師付き設定と半教師付き設定の両方に適用可能である。
論文 参考訳(メタデータ) (2020-11-03T07:49:15Z) - MetAL: Active Semi-Supervised Learning on Graphs via Meta Learning [2.903711704663904]
分類モデルの将来の性能を直接改善する未ラベルのインスタンスを選択するためのALアプローチであるMetALを提案する。
我々は、MetALが既存の最先端ALアルゴリズムより効率良く優れていることを示す。
論文 参考訳(メタデータ) (2020-07-22T06:59:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。