論文の概要: Are We Falling in a Middle-Intelligence Trap? An Analysis and Mitigation
of the Reversal Curse
- arxiv url: http://arxiv.org/abs/2311.07468v2
- Date: Thu, 16 Nov 2023 08:35:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 11:19:41.926672
- Title: Are We Falling in a Middle-Intelligence Trap? An Analysis and Mitigation
of the Reversal Curse
- Title(参考訳): ミドルインテリジェンストラップに落ちていくのか?
逆呪いの分析と緩和
- Authors: Ang Lv and Kaiyi Zhang and Shufang Xie and Quan Tu and Yuhan Chen and
Ji-Rong Wen and Rui Yan
- Abstract要約: 近年の研究では「逆の呪い」として知られる大きな言語モデルにおける現象が強調されている。
我々は、逆の呪いは特定のモデルの訓練目的の結果であると主張している。
本稿では、逆の呪いを軽減するために、新しい訓練手法BI Casual Language Modeling Optimization (BICO)を提案する。
- 参考スコア(独自算出の注目度): 73.65112477688353
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have highlighted a phenomenon in large language models (LLMs)
known as "the reversal curse," in which the order of knowledge entities in the
training data biases the models' comprehension. For example, if a model is
trained on sentences where entity A consistently appears before entity B, it
can respond to queries about A by providing B as the answer. However, it may
encounter confusion when presented with questions concerning B. We contend that
the reversal curse is partially a result of specific model training objectives,
particularly evident in the prevalent use of the next-token prediction within
most causal language models. For the next-token prediction, models solely focus
on a token's preceding context, resulting in a restricted comprehension of the
input. In contrast, we illustrate that the GLM, trained using the
autoregressive blank infilling objective where tokens to be predicted have
access to the entire context, exhibits better resilience against the reversal
curse. We propose a novel training method, BIdirectional Casual language
modeling Optimization (BICO), designed to mitigate the reversal curse when
fine-tuning pretrained causal language models on new data. BICO modifies the
causal attention mechanism to function bidirectionally and employs a mask
denoising optimization. In the task designed to assess the reversal curse, our
approach improves Llama's accuracy from the original 0% to around 70%. We hope
that more attention can be focused on exploring and addressing these inherent
weaknesses of the current LLMs, in order to achieve a higher level of
intelligence.
- Abstract(参考訳): 近年の研究では、トレーニングデータにおける知識エンティティの順序がモデルの理解をバイアスする「反転の呪い」として知られる大規模言語モデル(llm)の現象が強調されている。
例えば、エンティティAがエンティティBの前に一貫して現れる文でモデルが訓練されている場合、Bを答えとしてAに関するクエリに応答することができる。
しかし、bに関する疑問が提示されると混乱する可能性がある。我々は、逆転の呪いは、特定のモデルトレーニングの目的、特にほとんどの因果言語モデルにおける次の予測の一般的な使用において、部分的には明らかな結果であると主張する。
次世代の予測では、モデルはトークンの前のコンテキストのみに焦点を当て、入力の限定的な理解をもたらす。
対照的に、予測されるトークンがコンテキスト全体にアクセス可能な自己回帰的空白埋め込み目標を用いて訓練されたGLMは、逆の呪いに対してより良いレジリエンスを示す。
本稿では,新しいデータに基づく因果言語モデルに微調整を施した際の逆の呪いを軽減するために,BICO(BIdirectional Casual Language Modeling Optimization)を提案する。
bicoは因果注意機構を双方向に機能するように修正し、マスク同期最適化を採用している。
逆の呪いを評価するために設計されたタスクでは、Llamaの精度を元の0%から約70%に向上させる。
我々は、より高いレベルの知性を達成するために、現在のllmの持つ本質的な弱点を探求し、対処することに集中できることを望んでいる。
関連論文リスト
- Mitigating Reversal Curse via Semantic-aware Permutation Training [61.216062411246064]
我々は、大きな言語モデル(LLM)が「逆の呪い」に苦しむことを示す。
逆の呪いの根本原因は、訓練と推論の段階で異なる単語順にある。
この問題に対処するために,SPT(Semantic-Aware Permutation Training)を提案する。
論文 参考訳(メタデータ) (2024-03-01T18:55:20Z) - Fine-tuning Language Models for Factuality [96.5203774943198]
大規模な事前訓練型言語モデル(LLM)は、しばしば伝統的な検索エンジンの代替として、広く使われるようになった。
しかし、言語モデルは説得力のあるが事実的に不正確な主張をしがちである(しばしば「幻覚」と呼ばれる)。
本研究では,人間のラベル付けなしに,より現実的な言語モデルを微調整する。
論文 参考訳(メタデータ) (2023-11-14T18:59:15Z) - Anti-LM Decoding for Zero-shot In-context Machine Translation [64.73770153577743]
本研究は, 文脈内機械翻訳の弱点に対処するために, 減衰係数を付加したアンチランゲージモデルを提案する。
3つのモデルタイプとサイズ,3つの言語方向,およびグリージーデコーディングとビームサーチの両方に対して実験を行う。
論文 参考訳(メタデータ) (2023-11-14T17:09:43Z) - Improving Input-label Mapping with Demonstration Replay for In-context
Learning [67.57288926736923]
In-context Learning (ICL)は、大規模な自己回帰言語モデルの出現する能力である。
Sliding Causal Attention (RdSca) と呼ばれる新しいICL法を提案する。
ICL実験において,本手法は入力ラベルマッピングを大幅に改善することを示す。
論文 参考訳(メタデータ) (2023-10-30T14:29:41Z) - MiLe Loss: a New Loss for Mitigating the Bias of Learning Difficulties
in Generative Language Models [42.758124524703895]
トークンによる学習難易度を緩和するMiLe Loss関数を提案する。
我々は468M,1.2B,6.7Bパラメータの異なるスケールで生成言語モデルを訓練する。
実験により、提案されたMiLe Lossを組み込んだモデルが下流ベンチマークで一貫したパフォーマンス向上を達成できることが明らかになった。
論文 参考訳(メタデータ) (2023-10-30T13:33:21Z) - GanLM: Encoder-Decoder Pre-training with an Auxiliary Discriminator [114.8954615026781]
本稿では,補助判別器を導入して,エンコーダ・デコーダ事前学習のためのGANスタイルのモデルを提案する。
GanLMは2つのトレーニング済みの目標 – トークン検出の置き換えとトークン記述の置き換え – でトレーニングされている。
言語生成ベンチマークの実験では、強力な言語理解能力を持つ GanLM が、様々な強力な事前学習言語モデルより優れていることが示されている。
論文 参考訳(メタデータ) (2022-12-20T12:51:11Z) - Cold-start Active Learning through Self-supervised Language Modeling [15.551710499866239]
アクティブラーニングは、ラベルに最も重要な例を選択することで、アノテーションのコストを削減することを目的としている。
BERTでは、マスク付き言語モデリング損失に基づく単純な戦略を開発する。
他のベースラインと比較して,本手法はより少ないサンプリングイテレーションと時間で精度が高い。
論文 参考訳(メタデータ) (2020-10-19T14:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。