論文の概要: Verifiable by Design: Aligning Language Models to Quote from Pre-Training Data
- arxiv url: http://arxiv.org/abs/2404.03862v1
- Date: Fri, 5 Apr 2024 02:27:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-08 17:16:00.508185
- Title: Verifiable by Design: Aligning Language Models to Quote from Pre-Training Data
- Title(参考訳): 設計による検証 - 事前学習データから記述する言語モデルの調整
- Authors: Jingyu Zhang, Marc Marone, Tianjian Li, Benjamin Van Durme, Daniel Khashabi,
- Abstract要約: 我々は、事前学習データにおいて、信頼された情報源から動詞句を引用するモデルを開発する。
Quote-Tuning は高品質な事前学習文書から引用した LLM 生成率を著しく向上させる。
- 参考スコア(独自算出の注目度): 48.409306245463
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For humans to trust the fluent generations of large language models (LLMs), they must be able to verify their correctness against trusted, external sources. Recent efforts aim to increase verifiability through citations of retrieved documents or post-hoc provenance. However, such citations are prone to mistakes that further complicate their verifiability. To address these limitations, we tackle the verifiability goal with a different philosophy: we trivialize the verification process by developing models that quote verbatim statements from trusted sources in pre-training data. We propose Quote-Tuning, which demonstrates the feasibility of aligning LLMs to leverage memorized information and quote from pre-training data. Quote-Tuning quantifies quoting against large corpora with efficient membership inference tools, and uses the amount of quotes as an implicit reward signal to construct a synthetic preference dataset for quoting, without any human annotation. Next, the target model is aligned to quote using preference optimization algorithms. Experimental results show that Quote-Tuning significantly increases the percentage of LLM generation quoted verbatim from high-quality pre-training documents by 55% to 130% relative to untuned models while maintaining response quality. Further experiments demonstrate that Quote-Tuning generalizes quoting to out-of-domain data, is applicable in different tasks, and provides additional benefits to truthfulness. Quote-Tuning not only serves as a hassle-free method to increase quoting but also opens up avenues for improving LLM trustworthiness through better verifiability.
- Abstract(参考訳): 人類が大規模言語モデル(LLM)の流動的な世代を信頼するには、信頼された外部ソースに対する正当性を検証する必要がある。
近年の取り組みは、検索した文書の引用やポストホックの証明による検証性の向上をめざしている。
しかし、そのような引用は、その検証可能性をさらに複雑にする間違いをしがちである。
これらの制限に対処するために、我々は異なる哲学を用いて検証可能性のゴールに取り組む:我々は、事前学習データにおいて信頼された情報源から動詞を引用するモデルを開発することによって、検証プロセスを自明にする。
本研究では,記憶情報と事前学習データからの引用量を活用するためのLLMの整合性を示すQuote-Tuningを提案する。
Quote-Tuningは、効率的なメンバーシップ推論ツールを備えた大規模なコーパスに対する引用を定量化し、引用の量を暗黙の報酬信号として使用し、人間のアノテーションなしで引用のための合成選好データセットを構築する。
次に、選好最適化アルゴリズムを用いて、対象モデルを引用に整列する。
実験結果から,Quote-Tuningは,高品質事前学習文書から引用したLCM生成率を,応答品質を維持しつつ,未調整モデルと比較して55%から130%向上することがわかった。
さらなる実験では、Quote-Tuningがドメイン外データの引用を一般化し、異なるタスクに適用でき、真理性にさらなる利益をもたらすことが示されている。
Quote-Tuningは、引用量を増やすための面倒な方法として機能するだけでなく、LLMの信頼性を向上させるための道を開く。
関連論文リスト
- Source-Aware Training Enables Knowledge Attribution in Language Models [81.13048060332775]
大規模言語モデル(LLM)は、事前訓練中に膨大な量の知識を学習するが、そのような知識の源泉にはあまり依存しないことが多い。
そこで本研究では,LLMが生成した応答をサポートする事前学習ソースを引用するために必要となる,本質的なソース引用の問題について検討する。
トレーニングレシピでは,事前学習データに対する忠実な帰属が,通常の事前学習と比較して,モデルの品質に大きな影響を与えない。
論文 参考訳(メタデータ) (2024-04-01T09:39:38Z) - Improving Attributed Text Generation of Large Language Models via Preference Learning [28.09715554543885]
属性タスクを選好学習としてモデル化し,自動選好最適化フレームワークを導入する。
APOは、回答品質の高い最先端の引用F1を達成する。
論文 参考訳(メタデータ) (2024-03-27T09:19:13Z) - Fine-tuning Language Models for Factuality [96.5203774943198]
大規模な事前訓練型言語モデル(LLM)は、しばしば伝統的な検索エンジンの代替として、広く使われるようになった。
しかし、言語モデルは説得力のあるが事実的に不正確な主張をしがちである(しばしば「幻覚」と呼ばれる)。
本研究では,人間のラベル付けなしに,より現実的な言語モデルを微調整する。
論文 参考訳(メタデータ) (2023-11-14T18:59:15Z) - Trusted Source Alignment in Large Language Models [30.14375102262399]
本稿では,ファクトチェック記事のコーパスに基づくTSA評価データセットであるFactCheckQAを提案する。
モデルサイズを拡大するにつれて、FactCheckQAのモデル性能は、信頼性のあるソースとの整合性において、ほぼランダムから最大80%のバランスの取れた精度に向上する。
論文 参考訳(メタデータ) (2023-11-12T00:25:25Z) - Unsupervised Pretraining for Fact Verification by Language Model
Distillation [4.504050940874427]
SFAVEL (Self-supervised Fact Verification via Language Model Distillation) は,教師なし事前学習フレームワークである。
アノテーションを必要とせずに、自己管理機能を高品質なクレーム-ファクトアライメントに分解する。
これは、特徴が高品質なクレームとエビデンスアライメントを達成することを奨励する、新しい対照的な損失関数によって実現されている。
論文 参考訳(メタデータ) (2023-09-28T15:53:44Z) - Ethicist: Targeted Training Data Extraction Through Loss Smoothed Soft
Prompting and Calibrated Confidence Estimation [56.57532238195446]
本研究では,対象とするトレーニングデータ抽出のためのEthicistという手法を提案する。
メモリ化を誘発するため、モデルを固定しながらソフトなプロンプト埋め込みをチューニングする。
我々は,最近提案された公開ベンチマークにおいて,エティシストが抽出性能を著しく向上することを示す。
論文 参考訳(メタデータ) (2023-07-10T08:03:41Z) - Enabling Large Language Models to Generate Text with Citations [37.64884969997378]
大規模言語モデル (LLM) は情報検索のツールとして広く使われている。
我々の目的は、LLMが引用文を生成できるようにし、その事実の正しさと妥当性を向上させることである。
自動LLMのCitation Evaluationのための最初のベンチマークであるALCEを提案する。
論文 参考訳(メタデータ) (2023-05-24T01:53:49Z) - "According to ...": Prompting Language Models Improves Quoting from
Pre-Training Data [52.03853726206584]
LLM(Large Language Models)は、実データに基づいて事前訓練されているにもかかわらず、幻覚と偽情報を生成する。
本稿では,従来観察されていたテキストに対してLLMを接地応答に誘導する手法を提案する。
基礎となるテキストコーパスにモデル生成回答が直接現れる範囲を計測する新しい評価指標(QUIP-Score)を提案する。
論文 参考訳(メタデータ) (2023-05-22T17:25:24Z) - NoiER: An Approach for Training more Reliable Fine-TunedDownstream Task
Models [54.184609286094044]
補助モデルと付加データなしで問題を解くための学習パラダイムとして,ノイズエントロピー正規化(NoiER)を提案する。
提案手法は,従来の微調整モデルと比較して平均55%改善した。
論文 参考訳(メタデータ) (2021-08-29T06:58:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。