論文の概要: P-Adapters: Robustly Extracting Factual Information from Language Models
with Diverse Prompts
- arxiv url: http://arxiv.org/abs/2110.07280v1
- Date: Thu, 14 Oct 2021 11:32:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-15 13:59:19.332946
- Title: P-Adapters: Robustly Extracting Factual Information from Language Models
with Diverse Prompts
- Title(参考訳): P-Adapters: 言語モデルからさまざまなプロンプトを持つ実情報をロバストに抽出する
- Authors: Benjamin Newman, Prafulla Kumar Choubey, Nazneen Rajani
- Abstract要約: 埋め込み層と大規模言語モデルの第一の注意層の間に位置する軽量モデルであるP-Adaptersを紹介します。
LLMの埋め込みを入力とし、LLMに問い合わせるのに使用される連続的なプロンプトを出力する。
それらは、一貫性の12~26%の絶対的な改善と、自然言語クエリのみを使用するベースラインよりも36~50%の精度の絶対的な改善を示す。
- 参考スコア(独自算出の注目度): 7.657992756210283
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work (e.g. LAMA (Petroni et al., 2019)) has found that the quality of
the factual information extracted from Large Language Models (LLMs) depends on
the prompts used to query them. This inconsistency is problematic because
different users will query LLMs for the same information using different
wording, but should receive the same, accurate responses regardless. In this
work we aim to address this shortcoming by introducing P-Adapters: lightweight
models that sit between the embedding layer and first attention layer of LLMs.
They take LLM embeddings as input and output continuous prompts that are used
to query the LLM. Additionally, we investigate Mixture of Experts (MoE) models
that learn a set of continuous prompts ("experts") and select one to query the
LLM. They require a separate classifier trained on human-annotated data to map
natural language prompts to the continuous ones. P-Adapters perform comparably
to the more complex MoE models in extracting factual information from BERT and
RoBERTa while eliminating the need for additional annotations. P-Adapters show
between 12-26% absolute improvement in precision and 36-50% absolute
improvement in consistency over a baseline of only using natural language
queries. Finally, we investigate what makes a P-adapter successful and conclude
that access to the LLM's embeddings of the original natural language prompt,
particularly the subject of the entity pair being asked about, is a significant
factor.
- Abstract(参考訳): 最近の研究(例: LAMA (Petroni et al., 2019) は、Large Language Models (LLMs) から抽出された事実情報の質が、クエリに使用するプロンプトに依存していることを発見した。
異なるユーザが異なる単語を使って同じ情報に対してLLMをクエリするが、同じ正確な応答を受け取る必要があるため、この矛盾は問題となる。
本研究は,組込み層とLLMの最初の注目層の間に位置する軽量モデルであるP-アダプタを導入することで,この問題に対処することを目的とする。
LLMの埋め込みを入力とし、LLMに問い合わせるのに使用される連続的なプロンプトを出力する。
さらに,連続的なプロンプト(エキスパート)の集合を学習するMixture of Experts(MoE)モデルについて検討し,LLMを問合せするモデルを選択する。
自然言語のプロンプトを連続的なものにマッピングするために、人間に注釈されたデータに基づいてトレーニングされた別の分類器が必要である。
P-アダプタは、BERTやRoBERTaから事実情報を抽出し、追加のアノテーションを不要にすることで、より複雑なMoEモデルと互換性がある。
P-アダプタは、12~26%の精度の向上と36~50%の一貫性の向上を、自然言語クエリのみを使用するベースラインで示す。
最後に, P-Adapterを成功させる要因について検討し, LLMの本来の自然言語プロンプトの埋め込みへのアクセス, 特に質問されるエンティティペアの主題が重要な要因であると結論づける。
関連論文リスト
- Grounding by Trying: LLMs with Reinforcement Learning-Enhanced Retrieval [55.63711219190506]
大きな言語モデル(LLM)は、しばしば適切な検索クエリのポーズに苦労する。
私たちは$underlineLe$arningを$underlineRe$trieveに$underlineT$rying (LeReT)を導入します。
LeReTは、絶対精度を最大29%向上し、下流ジェネレータの評価を17%向上させることができる。
論文 参考訳(メタデータ) (2024-10-30T17:02:54Z) - SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - Peering into the Mind of Language Models: An Approach for Attribution in Contextual Question Answering [9.86691461253151]
大規模言語モデル(LLM)の隠れ状態表現を利用した文脈質問応答における帰属手法を提案する。
提案手法は,より詳細な属性を提供し,生成した回答の質を保ちながら,広範囲なモデル再訓練および検索モデルオーバーヘッドの必要性を回避している。
本稿では,LLM世代に対するトークンレベルのアノテーションを文脈質問応答設定に有する属性データセットであるVerifiability-granularを提案する。
論文 参考訳(メタデータ) (2024-05-28T09:12:44Z) - LaFFi: Leveraging Hybrid Natural Language Feedback for Fine-tuning
Language Models [14.087415157225715]
微調整大型言語モデル(LLM)は、特定の下流タスクに訓練されたモデルを適用する。
Supervised Fine-Tuning (SFT) は、LLMが望ましい回答を得るために訓練される一般的なアプローチである。
本稿では,LLMのための自然言語フィードバック (Natural Language Feedback for Finetuning LLMs, LaFFi) という,SFTの代替手法を提案する。
論文 参考訳(メタデータ) (2023-12-31T21:18:16Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - LLMRefine: Pinpointing and Refining Large Language Models via Fine-Grained Actionable Feedback [65.84061725174269]
最近の大規模言語モデル(LLM)は、世代品質を改善するために人間のフィードバックを活用している。
LLMの出力を最適化する推論時間最適化手法であるLLMRefineを提案する。
機械翻訳、長文質問応答(QA)、話題要約を含む3つのテキスト生成タスクについて実験を行った。
LLMRefineは、すべてのベースラインアプローチを一貫して上回り、翻訳タスクの1.7 MetricXポイント、ASQAの8.1 ROUGE-L、トピックの要約の2.2 ROUGE-Lの改善を実現している。
論文 参考訳(メタデータ) (2023-11-15T19:52:11Z) - Enhancing In-Context Learning with Answer Feedback for Multi-Span
Question Answering [9.158919909909146]
本稿では,LLMが望ましくない出力を通知するなど,ラベル付きデータを活用する新しい手法を提案する。
3つのマルチスパン質問応答データセットとキーフレーズ抽出データセットの実験により、我々の新しいプロンプト戦略はLLMの文脈内学習性能を一貫して改善することを示した。
論文 参考訳(メタデータ) (2023-06-07T15:20:24Z) - Large Language Models are Strong Zero-Shot Retriever [89.16756291653371]
ゼロショットシナリオにおける大規模検索に大規模言語モデル(LLM)を適用するための簡単な手法を提案する。
我々の手法であるRetriever(LameR)は,LLM以外のニューラルモデルに基づいて構築された言語モデルである。
論文 参考訳(メタデータ) (2023-04-27T14:45:55Z) - Querying Large Language Models with SQL [16.383179496709737]
多くのユースケースでは、情報はテキストに格納されるが、構造化データでは利用できない。
事前訓練されたLarge Language Models (LLMs) の台頭に伴い、大量のテキストコーパスから抽出された情報を保存および使用するための効果的なソリューションが現在存在する。
本稿では,従来のデータベースアーキテクチャに基づくプロトタイプであるGaloisについて紹介する。
論文 参考訳(メタデータ) (2023-04-02T06:58:14Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。