論文の概要: Smooth Sailing: Improving Active Learning for Pre-trained Language
Models with Representation Smoothness Analysis
- arxiv url: http://arxiv.org/abs/2212.11680v2
- Date: Mon, 23 Oct 2023 14:05:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 14:05:46.428081
- Title: Smooth Sailing: Improving Active Learning for Pre-trained Language
Models with Representation Smoothness Analysis
- Title(参考訳): Smooth Sailing:Representation Smoothness Analysisによる事前学習型言語モデルのアクティブラーニングの改善
- Authors: Josip Juki\'c and Jan \v{S}najder
- Abstract要約: アクティブラーニング(AL)手法は、教師あり学習におけるラベルの複雑さを低減することを目的としている。
本稿では,検証セットを必要としない早期停止手法を提案する。
タスク適応がALを改善するのに対して、ALの標準のショート微調整はランダムサンプリングよりも改善しない。
- 参考スコア(独自算出の注目度): 3.490038106567192
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Developed to alleviate prohibitive labeling costs, active learning (AL)
methods aim to reduce label complexity in supervised learning. While recent
work has demonstrated the benefit of using AL in combination with large
pre-trained language models (PLMs), it has often overlooked the practical
challenges that hinder the effectiveness of AL. We address these challenges by
leveraging representation smoothness analysis to ensure AL is feasible, that
is, both effective and practicable. Firstly, we propose an early stopping
technique that does not require a validation set -- often unavailable in
realistic AL conditions -- and observe significant improvements over random
sampling across multiple datasets and AL methods. Further, we find that task
adaptation improves AL, whereas standard short fine-tuning in AL does not
provide improvements over random sampling. Our work demonstrates the usefulness
of representation smoothness analysis for AL and introduces an AL stopping
criterion that reduces label complexity.
- Abstract(参考訳): 禁止ラベリングコストを軽減するために開発されたアクティブラーニング(AL)手法は、教師あり学習におけるラベルの複雑さを軽減することを目的としている。
最近の研究は、大規模な事前学習言語モデル(PLM)と組み合わせてALを使用する利点を実証しているが、ALの有効性を妨げる実践的な課題を見落としていることが多い。
これらの課題に対して,表現の滑らかさ分析を活用して,ALの実現性,すなわち,効果的かつ実用性を確保する。
まず、現実的なAL条件でしばしば利用できない検証セットを必要としない早期停止手法を提案し、複数のデータセットやALメソッドにわたるランダムサンプリングに対する大幅な改善を観察する。
さらに,タスク適応がalを改良するのに対し,alの標準短い微調整はランダムサンプリングよりも改善しないことがわかった。
本研究は,ALの表現滑らか性解析の有用性を実証し,ラベルの複雑さを低減するAL停止基準を導入する。
関連論文リスト
- Uncertainty Aware Learning for Language Model Alignment [97.36361196793929]
異なるタスクシナリオのモデルアライメントを改善するために,不確実性認識学習(UAL)を提案する。
トレーニングのラベルの平滑化値を個々のサンプルの不確実性に応じて適応的に設定する。
広く使われているベンチマーク実験では、我々のUALは標準教師あり微調整よりも著しく優れています。
論文 参考訳(メタデータ) (2024-06-07T11:37:45Z) - Navigating the Pitfalls of Active Learning Evaluation: A Systematic
Framework for Meaningful Performance Assessment [3.3064235071867856]
アクティブラーニング(AL)は、ラベルなしデータのプールから最も情報性の高いサンプルをインタラクティブに選択することで、ラベル付けの負担を軽減することを目的としている。
半教師型(Semi-SL)や自己教師型学習(Self-SL)のような新興パラダイムと比較して、ALの有効性を疑問視する研究もある。
論文 参考訳(メタデータ) (2023-01-25T15:07:44Z) - Pareto Optimization for Active Learning under Out-of-Distribution Data
Scenarios [79.02009938011447]
本研究では,未ラベルデータプールからバッチサイズを固定した未ラベルサンプルの最適なサブセットを選択するサンプリング手法を提案する。
実験の結果,従来の機械学習(ML)タスクとディープラーニング(DL)タスクの両方において,その効果が示された。
論文 参考訳(メタデータ) (2022-07-04T04:11:44Z) - Collaborative Intelligence Orchestration: Inconsistency-Based Fusion of
Semi-Supervised Learning and Active Learning [60.26659373318915]
アクティブラーニング(AL)と半教師付きラーニング(SSL)は2つの効果があるが、しばしば孤立している。
本稿では、SSL-ALの潜在的な優位性をさらに調査するために、革新的な一貫性に基づく仮想aDvErialアルゴリズムを提案する。
2つの実世界のケーススタディは、提案したデータサンプリングアルゴリズムの適用と展開の実践的な産業価値を可視化する。
論文 参考訳(メタデータ) (2022-06-07T13:28:43Z) - Smoothing Advantage Learning [20.760987175553645]
我々は、スムーシング・アドバンテージ・ラーニング (SAL) という、シンプルなアドバンテージ・ラーニング (AL) の変種を提案する。
提案手法は, 収束率と近似誤差の上界とのトレードオフを制御し, ALの訓練手順を安定させるだけでなく, 最適作用値と準最適作用値との作用ギャップを増大させることにも有用である。
論文 参考訳(メタデータ) (2022-03-20T03:52:32Z) - A Lagrangian Duality Approach to Active Learning [119.36233726867992]
トレーニングデータのサブセットのみをラベル付けするバッチアクティブな学習問題を考察する。
制約付き最適化を用いて学習問題を定式化し、各制約はラベル付きサンプルにモデルの性能を拘束する。
数値実験により,提案手法は最先端の能動学習法と同等かそれ以上に機能することを示した。
論文 参考訳(メタデータ) (2022-02-08T19:18:49Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - Effective Evaluation of Deep Active Learning on Image Classification
Tasks [10.27095298129151]
画像分類の文脈において,最先端の能動学習アルゴリズムを統一的に実装する。
正の面では、AL手法はデータ拡張によるRSに比べてラベル効率が2倍から4倍高いことを示す。
論文 参考訳(メタデータ) (2021-06-16T23:29:39Z) - Relieving the Plateau: Active Semi-Supervised Learning for a Better
Landscape [2.3046646540823916]
semi-supervised learning (ssl) はラベル付きデータよりもアクセスしやすいラベルなしデータを活用する。
active learning (al)は、ラベルなしのインスタンスを選択して、ラベル付きデータの少ないパフォーマンスを期待する。
本稿では,ラベル付き集合を含む問題条件を改善するためにラベル付きデータを選択するALアルゴリズムである収束率制御(CRC)を提案する。
論文 参考訳(メタデータ) (2021-04-08T06:03:59Z) - Reducing Confusion in Active Learning for Part-Of-Speech Tagging [100.08742107682264]
アクティブラーニング(AL)は、データ選択アルゴリズムを使用して、アノテーションコストを最小限に抑えるために有用なトレーニングサンプルを選択する。
本研究では、特定の出力タグのペア間の混乱を最大に低減するインスタンスの選択問題について検討する。
提案するAL戦略は,他のAL戦略よりも有意差で優れている。
論文 参考訳(メタデータ) (2020-11-02T06:24:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。