論文の概要: Mitigating the Problem of Strong Priors in LMs with Context
Extrapolation
- arxiv url: http://arxiv.org/abs/2401.17692v1
- Date: Wed, 31 Jan 2024 09:28:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 15:18:17.643218
- Title: Mitigating the Problem of Strong Priors in LMs with Context
Extrapolation
- Title(参考訳): 文脈外挿によるlmsにおける強先行問題の緩和
- Authors: Raymond Douglas, Andis Draguns, Tom\'a\v{s} Gaven\v{c}iak
- Abstract要約: 我々は,強い先行性の問題を軽減するための新しい手法を開発した。
我々は、元の命令セットを取り、元のプロンプトの弱化バージョンを生成し、継続を弱化プロンプトから外挿する。
これにより、モデルがどのように仮説的に強化された命令セットを継続するかを推測できる。
- 参考スコア(独自算出の注目度): 0.6629765271909505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Language models (LMs) have become important tools in a variety of
applications, from data processing to the creation of instruction-following
assistants. But despite their advantages, LMs have certain idiosyncratic
limitations such as the problem of `strong priors', where a model learns to
output typical continuations in response to certain, usually local, portions of
the input regardless of any earlier instructions. For example, prompt injection
attacks can induce models to ignore explicit directives. In some cases, larger
models have been shown to be more susceptible to these problems than similar
smaller models, an example of the phenomenon of `inverse scaling'. We develop a
new technique for mitigating the problem of strong priors: we take the original
set of instructions, produce a weakened version of the original prompt that is
even more susceptible to the strong priors problem, and then extrapolate the
continuation away from the weakened prompt. This lets us infer how the model
would continue a hypothetical strengthened set of instructions. Our technique
conceptualises LMs as mixture models which combine a family of data generation
processes, reinforcing the desired elements of the mixture. Our approach works
at inference time, removing any need for retraining. We apply it to eleven
models including GPT-2, GPT-3, Llama 2, and Mistral on four tasks, and find
improvements in 41/44. Across all 44 combinations the median increase in
proportion of tasks completed is 40%.
- Abstract(参考訳): 言語モデル(LM)は、データ処理から命令追従アシスタントの作成に至るまで、様々なアプリケーションにおいて重要なツールとなっている。
しかし、その利点にもかかわらず、lms は 'strong priors' という問題のような特殊な制約を持ち、モデルが以前の命令に関係なく入力の特定の局所的な部分に応じて典型的な継続を出力することを学習する。
例えば、プロンプトインジェクション攻撃は、明示的なディレクティブを無視するモデルを引き起こす可能性がある。
場合によっては、「逆スケーリング」という現象の例のように、より大きなモデルは同様のより小さなモデルよりもこれらの問題により影響を受けやすいことが示されている。
我々は、強優先問題の問題を緩和するための新しい手法を開発した:我々は、元の命令セットを取り、強優先問題にさらに影響を受けやすい元のプロンプトの弱化バージョンを生成し、その後、弱化したプロンプトから継続を外挿する。
これにより、モデルがどのように仮説的に強化された命令セットを継続するかを推測できる。
本手法は,データ生成プロセスのファミリを組み合わせた混合モデルとしてLMを概念化し,混合の望ましい要素を補強する。
私たちのアプローチは推論時に動作し、再トレーニングの必要性をなくします。
GPT-2, GPT-3, Llama 2, Mistralを含む11種類のモデルに適用し, 41/44。
44の組合せ全体を通して、完了したタスクの割合の中央値は40%である。
関連論文リスト
- M-DEW: Extending Dynamic Ensemble Weighting to Handle Missing Values [2.8861431208787525]
我々は、不足データを用いて下流予測を行うための新しいAutoML技術を開発した。
M-DEWは18実験中17実験において、モデルパープレキシティの統計的に有意な減少を生じるという、最先端技術よりも優れていることが示されている。
論文 参考訳(メタデータ) (2024-04-30T20:13:18Z) - Beyond Human Data: Scaling Self-Training for Problem-Solving with Language Models [115.501751261878]
人為的なデータに基づく微調整言語モデル(LM)が普及している。
我々は、スカラーフィードバックにアクセス可能なタスクにおいて、人間のデータを超えることができるかどうか検討する。
ReST$EM$はモデルサイズに好適にスケールし、人間のデータのみによる微調整を大幅に上回っていることがわかった。
論文 参考訳(メタデータ) (2023-12-11T18:17:43Z) - AdaMerging: Adaptive Model Merging for Multi-Task Learning [72.2068175246167]
本稿では,Adaptive Model Merging (AdaMerging)と呼ばれる革新的な手法を紹介する。
本来のトレーニングデータに頼ることなく、タスクレベルでも階層的にも、モデルマージの係数を自律的に学習することを目指している。
AdaMergingは、現在の最先端のタスク演算のマージ方式と比較すると、パフォーマンスが11%向上している。
論文 参考訳(メタデータ) (2023-10-04T04:26:33Z) - Inverse Scaling: When Bigger Isn't Better [64.993426536523]
大規模言語モデル(LM)は、スケールの増大による全体的な損失に対する予測可能な改善を示している。
我々は,LMが逆スケーリングや,スケールの増大に伴うタスクパフォーマンスの悪化を示す可能性があるという主張を裏付ける証拠を示す。
論文 参考訳(メタデータ) (2023-06-15T20:11:23Z) - Matching Pairs: Attributing Fine-Tuned Models to their Pre-Trained Large
Language Models [11.57282859281814]
異なる知識レベルと属性戦略を考慮し、最良の方法で10の微調整されたモデルのうち8つを正確に追跡できることに気付きます。
論文 参考訳(メタデータ) (2023-06-15T17:42:48Z) - One-Shot Machine Unlearning with Mnemonic Code [5.579745503613096]
機械学習(MU)は、トレーニングされたディープラーニングモデルから望ましくないトレーニングデータを忘れることを目的としている。
単純なMUアプローチは、望ましくないデータが削除されたトレーニングデータで、モデル全体を再トレーニングすることです。
追加の訓練を必要としないワンショットMU法を提案する。
論文 参考訳(メタデータ) (2023-06-09T04:59:24Z) - Tokenization Consistency Matters for Generative Models on Extractive NLP
Tasks [54.306234256074255]
生成モデルの訓練において一般的に無視されるトークン化の不整合の問題を特定する。
この問題は、入力と出力が無矛盾にトークン化されると、これらのタスクの抽出特性を損なう。
一貫性のあるトークン化では、ドメイン内のデータセットとドメイン外のデータセットの両方で、モデルのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2022-12-19T23:33:21Z) - An Efficient Method of Training Small Models for Regression Problems
with Knowledge Distillation [1.433758865948252]
回帰問題に対する知識蒸留の新しい定式化を提案する。
まず,教師モデル予測を用いて,教師モデルを用いた学習サンプルの退学率を下げる新たな損失関数,教師の退学率の減少を提案する。
マルチタスクネットワークを考えることで、学生モデルの特徴抽出の訓練がより効果的になる。
論文 参考訳(メタデータ) (2020-02-28T08:46:12Z) - AvgOut: A Simple Output-Probability Measure to Eliminate Dull Responses [97.50616524350123]
機能エンジニアリングなしで、どの発話やトークンが退屈であるかを動的に認識する対話モデルを構築します。
最初のモデルMinAvgOutは、各バッチの出力分布を通して、ダイバーシティスコアを直接最大化する。
第2のモデルであるラベルファインチューニング(LFT)は、多様性スコアによって連続的にスケールされたラベルをソースシーケンスにプリペイドし、多様性レベルを制御する。
3つ目のモデルであるRLは強化学習を採用し、多様性スコアを報奨信号として扱う。
論文 参考訳(メタデータ) (2020-01-15T18:32:06Z) - oLMpics -- On what Language Model Pre-training Captures [84.60594612120173]
本研究では,比較,協調,合成などの操作を必要とする8つの推論タスクを提案する。
基本的な課題は、タスク上でのLMのパフォーマンスが、事前訓練された表現やタスクデータの微調整のプロセスに起因すべきかどうかを理解することである。
論文 参考訳(メタデータ) (2019-12-31T12:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。