論文の概要: Active Learning Helps Pretrained Models Learn the Intended Task
- arxiv url: http://arxiv.org/abs/2204.08491v1
- Date: Mon, 18 Apr 2022 18:00:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-20 13:13:31.388925
- Title: Active Learning Helps Pretrained Models Learn the Intended Task
- Title(参考訳): 訓練済みモデルの意図したタスク学習を支援するアクティブラーニング
- Authors: Alex Tamkin, Dat Nguyen, Salil Deshpande, Jesse Mu, Noah Goodman
- Abstract要約: 事前訓練されたモデルでは、不確実性に基づくアクティブラーニングを使用する場合、ラベルの最大5倍のコストが要求される。
これらの利益は、意図した振る舞いを曖昧にするような属性で例を選択できる能力から得られます。
これらの属性は、事前訓練されたモデルの表現空間において、非事前訓練されたモデルよりもはるかに線形に分離可能であり、この挙動のメカニズムを示唆している。
- 参考スコア(独自算出の注目度): 14.42594036213011
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Models can fail in unpredictable ways during deployment due to task
ambiguity, when multiple behaviors are consistent with the provided training
data. An example is an object classifier trained on red squares and blue
circles: when encountering blue squares, the intended behavior is undefined. We
investigate whether pretrained models are better active learners, capable of
disambiguating between the possible tasks a user may be trying to specify.
Intriguingly, we find that better active learning is an emergent property of
the pretraining process: pretrained models require up to 5 times fewer labels
when using uncertainty-based active learning, while non-pretrained models see
no or even negative benefit. We find these gains come from an ability to select
examples with attributes that disambiguate the intended behavior, such as rare
product categories or atypical backgrounds. These attributes are far more
linearly separable in pretrained model's representation spaces vs
non-pretrained models, suggesting a possible mechanism for this behavior.
- Abstract(参考訳): 複数の動作が提供されたトレーニングデータと一致している場合、タスクのあいまいさのため、デプロイ中に予測不能な方法でモデルが失敗する可能性がある。
例えば、赤い四角形と青い円で訓練されたオブジェクト分類器だ: 青い四角形に遭遇すると、意図された振る舞いは定義されない。
事前学習されたモデルがよりアクティブな学習者であり、ユーザが指定しようとしている可能性のあるタスク間の曖昧さを解消できるかどうかを調べる。
不確実性に基づくアクティブラーニングを使用する場合、事前トレーニングされたモデルは最大5倍のラベルを必要とするが、非トレーニングモデルにはメリットがない、あるいは負のメリットがある、というのが興味深い。
このような成果は,まれな製品カテゴリや非典型的背景など,意図した動作を曖昧にする属性を持った例を選択することで得られることが分かりました。
これらの属性は、事前訓練されたモデルの表現空間において、非事前訓練されたモデルよりもはるかに線形に分離可能である。
関連論文リスト
- Causal Estimation of Memorisation Profiles [58.20086589761273]
言語モデルにおける記憶の理解は、実践的および社会的意味を持つ。
覚書化(英: Memorisation)とは、モデルがそのインスタンスを予測できる能力に対して、あるインスタンスでトレーニングを行うことによる因果的影響である。
本稿では,計量学の差分差分設計に基づく,新しい,原理的,効率的な記憶推定法を提案する。
論文 参考訳(メタデータ) (2024-06-06T17:59:09Z) - Premonition: Using Generative Models to Preempt Future Data Changes in
Continual Learning [63.850451635362425]
継続的な学習には、データ分散の継続的な変化に対応するためのモデルが必要である。
本稿では,大規模言語モデルと画像生成モデルの組み合わせが有用であることを示す。
トレーニング済みネットワークのバックボーンは、下流の連続学習問題に有用な表現を学習できることがわかった。
論文 参考訳(メタデータ) (2024-03-12T06:29:54Z) - Ask Your Distribution Shift if Pre-Training is Right for You [74.18516460467019]
実際に、事前訓練されたモデルの微調整は、いくつかのケースではロバスト性を大幅に改善するが、他のケースではまったく改善しない。
分散シフト中のモデルの2つの障害モード – トレーニングデータの補間不足とバイアス – に注目する。
我々の研究は、親指の規則として、事前学習は、粗悪な外挿を緩和するがデータセットのバイアスを緩和する助けとなることを示唆している。
論文 参考訳(メタデータ) (2024-02-29T23:46:28Z) - Model Uncertainty based Active Learning on Tabular Data using Boosted
Trees [0.4667030429896303]
監視された機械学習は、モデルトレーニングのための良質なラベル付きデータの可用性に依存している。
アクティブな学習は機械学習のサブフィールドであり、ラベル付きデータを効率的に取得するのに役立つ。
論文 参考訳(メタデータ) (2023-10-30T14:29:53Z) - RanPAC: Random Projections and Pre-trained Models for Continual Learning [59.07316955610658]
継続学習(CL)は、古いタスクを忘れずに、非定常データストリームで異なるタスク(分類など)を学習することを目的としている。
本稿では,事前学習モデルを用いたCLの簡潔かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-05T12:49:02Z) - Uncertainty Estimation for Language Reward Models [5.33024001730262]
言語モデルは、テキストコーパスの教師なしトレーニングからさまざまな能力を学ぶことができる。
人間がラベル付きデータを提供するよりも選択肢を選択する方が簡単であり、事前の作業はそのような選好比較から報酬モデルをトレーニングすることで最先端のパフォーマンスを達成した。
能動的学習とリスク-逆強化学習を用いてサンプル効率とロバスト性を向上させる不確実性推定によるこれらの問題に対処することを模索する。
論文 参考訳(メタデータ) (2022-03-14T20:13:21Z) - Agree to Disagree: Diversity through Disagreement for Better
Transferability [54.308327969778155]
本稿では,D-BAT(Diversity-By-dis-Agreement Training)を提案する。
我々は、D-BATが一般化された相違の概念から自然に現れることを示す。
論文 参考訳(メタデータ) (2022-02-09T12:03:02Z) - Optimizing Active Learning for Low Annotation Budgets [6.753808772846254]
ディープラーニングでは、アクティブな学習は通常、微調整によって連続した深層モデルを更新する反復的なプロセスとして実装される。
移行学習にインスパイアされたアプローチを用いてこの問題に対処する。
本稿では,ALプロセスの反復性を利用してより堅牢なサンプルを抽出する新しい取得関数を提案する。
論文 参考訳(メタデータ) (2022-01-18T18:53:10Z) - Pair the Dots: Jointly Examining Training History and Test Stimuli for
Model Interpretability [44.60486560836836]
モデルからの予測は、学習履歴とテスト刺激の組み合わせによって行われる。
モデルの予測を解釈する既存の方法は、テスト刺激または学習履歴の1つの側面しかキャプチャできない。
本研究では,学習履歴とテスト刺激を共同で調べることで,モデルの予測を解釈しやすくするための,効率的かつ異なるアプローチを提案する。
論文 参考訳(メタデータ) (2020-10-14T10:45:01Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。