論文の概要: Syntriever: How to Train Your Retriever with Synthetic Data from LLMs
- arxiv url: http://arxiv.org/abs/2502.03824v3
- Date: Fri, 14 Feb 2025 01:05:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-17 18:05:40.652065
- Title: Syntriever: How to Train Your Retriever with Synthetic Data from LLMs
- Title(参考訳): Syntriever: LLMの合成データを使ってRetrieverをトレーニングする方法
- Authors: Minsang Kim, Seungjun Baek,
- Abstract要約: ブラックボックスLLMの合成データを用いた検索者のための学習フレームワークであるSyntrieverを提案する。
そこで我々は,LLM選好を正規化して学習するために,部分的なPockett-Luceランキングと呼ばれる選好モデルを提案する。
実験により、Syntrieverは様々なドメインのベンチマークデータセット上で最先端のパフォーマンスを達成することが示された。
- 参考スコア(独自算出の注目度): 4.079147243688765
- License:
- Abstract: LLMs have boosted progress in many AI applications. Recently, there were attempts to distill the vast knowledge of LLMs into information retrieval systems. Those distillation methods mostly use output probabilities of LLMs which are unavailable in the latest black-box LLMs. We propose Syntriever, a training framework for retrievers using synthetic data from black-box LLMs. Syntriever consists of two stages. Firstly in the distillation stage, we synthesize relevant and plausibly irrelevant passages and augmented queries using chain-of-thoughts for the given queries. LLM is asked to self-verify the synthetic data for possible hallucinations, after which retrievers are trained with a loss designed to cluster the embeddings of relevant passages. Secondly in the alignment stage, we align the retriever with the preferences of LLMs. We propose a preference modeling called partial Plackett-Luce ranking to learn LLM preferences with regularization which prevents the model from deviating excessively from that trained in the distillation stage. Experiments show that Syntriever achieves state-of-the-art performances on benchmark datasets from various domains in nDCG@$K$. The code is available at \href{https://github.com/kmswin1/Syntriever}{https://github.com/kmswin1/Syntriever}.
- Abstract(参考訳): LLMは多くのAIアプリケーションの進歩を加速している。
近年,LLMの膨大な知識を情報検索システムに抽出する試みが試みられている。
これらの蒸留法は主に、最新のブラックボックスLCMでは利用できないLSMの出力確率を使用する。
ブラックボックスLLMの合成データを用いた検索者のための学習フレームワークであるSyntrieverを提案する。
シントリバーは2つのステージから構成される。
まず, 蒸留段階において, 提案したクエリのチェーン・オブ・ソートを用いて, 関連性, 関連性に乏しいパスと拡張クエリを合成する。
LLMは、幻覚の可能性のある合成データを自己検証するよう求められ、その後、レトリバーは関連する通路の埋め込みをクラスタ化するように設計された損失で訓練される。
次に、アライメント段階において、レトリバーをLLMの好みに合わせる。
そこで本研究では, 蒸留工程においてトレーニングされたものから過度に逸脱することを防止するため, LLM選好を正規化して学習するために, 部分プラケット・リュックランキングと呼ばれる選好モデルを提案する。
実験の結果、SyntrieverはnDCG@$K$の様々なドメインからベンチマークデータセットの最先端のパフォーマンスを達成している。
コードは \href{https://github.com/kmswin1/Syntriever}{https://github.com/kmswin1/Syntriever} で公開されている。
関連論文リスト
- Grounding by Trying: LLMs with Reinforcement Learning-Enhanced Retrieval [55.63711219190506]
大きな言語モデル(LLM)は、しばしば適切な検索クエリのポーズに苦労する。
私たちは$underlineLe$arningを$underlineRe$trieveに$underlineT$rying (LeReT)を導入します。
LeReTは、絶対精度を最大29%向上し、下流ジェネレータの評価を17%向上させることができる。
論文 参考訳(メタデータ) (2024-10-30T17:02:54Z) - On Unsupervised Prompt Learning for Classification with Black-box Language Models [71.60563181678323]
大規模言語モデル(LLM)は、テキスト形式学習問題において顕著な成功を収めた。
LLMは、熟練した人間のアノテータよりも品質の高いデータセットをラベル付けすることができる。
本稿では,ブラックボックス LLM を用いた分類のための教師なしのプロンプト学習を提案する。
論文 参考訳(メタデータ) (2024-10-04T03:39:28Z) - A Practice-Friendly LLM-Enhanced Paradigm with Preference Parsing for Sequential Recommendation [15.153844486572932]
本稿では、シーケンシャルレコメンデータシステム(SRS)のための優先構文解析(P2Rec)を用いた実践的LLM拡張パラダイムを提案する。
具体的には、情報再構成段階において、事前学習したSRSモデルの助けを借りて、協調的な情報注入のための新しいユーザレベルSFTタスクを設計する。
我々のゴールは、LLMが各ユーザのインタラクションシーケンスから対応する優先度分布を再構築することを学ばせることである。
論文 参考訳(メタデータ) (2024-06-01T07:18:56Z) - SynthesizRR: Generating Diverse Datasets with Retrieval Augmentation [55.2480439325792]
トピック分類,感情分析,トーン検出,ユーモアの6つのデータセットの合成について検討した。
その結果,SynthesizRRは語彙や意味の多様性,人文との類似性,蒸留性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-05-16T12:22:41Z) - CodecLM: Aligning Language Models with Tailored Synthetic Data [51.59223474427153]
命令追従能力のための高品質な合成データを適応的に生成するフレームワークであるCodecLMを紹介する。
まず、ターゲットの指示分布をキャプチャするために、オンザフライで生成された簡潔なキーワードであるメタデータにシード命令をエンコードする。
また、デコード中に自己論理とコントラストフィルタを導入し、データ効率の良いサンプルを調整する。
論文 参考訳(メタデータ) (2024-04-08T21:15:36Z) - Mitigating Catastrophic Forgetting in Large Language Models with Self-Synthesized Rehearsal [49.24054920683246]
大規模言語モデル(LLM)は、連続学習中に破滅的な忘れ込みに悩まされる。
自己合成リハーサル(Self-Synthesized Rehearsal, SSR)と呼ばれるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-02T16:11:23Z) - Distilled Self-Critique of LLMs with Synthetic Data: a Bayesian Perspective [0.0]
本稿では, 蒸留自己批判(dSC)を導入し, RLAIFをベイズ推論として解釈する。
dSCは、後に微調整されたモデルに蒸留されるギブス・サンプルラーを通してLLMの出力を精製する。
論文 参考訳(メタデータ) (2023-12-04T15:16:12Z) - Large Language Models are Strong Zero-Shot Retriever [89.16756291653371]
ゼロショットシナリオにおける大規模検索に大規模言語モデル(LLM)を適用するための簡単な手法を提案する。
我々の手法であるRetriever(LameR)は,LLM以外のニューラルモデルに基づいて構築された言語モデルである。
論文 参考訳(メタデータ) (2023-04-27T14:45:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。