論文の概要: Retrieving Texts based on Abstract Descriptions
- arxiv url: http://arxiv.org/abs/2305.12517v2
- Date: Sun, 22 Oct 2023 17:38:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 12:13:30.111580
- Title: Retrieving Texts based on Abstract Descriptions
- Title(参考訳): 要約記述に基づくテキストの検索
- Authors: Shauli Ravfogel, Valentina Pyatkin, Amir DN Cohen, Avshalom Manevich,
Yoav Goldberg
- Abstract要約: 埋め込みベクトル上の類似性検索は、クエリによる検索を可能にするが、埋め込みに反映される類似性は不定義であり、一貫性がない。
我々は,その内容の抽象的記述に基づいて文を検索する,明確に定義された一貫したタスクを同定する。
そこで本研究では,近隣の標準探索で使用する場合の精度を大幅に向上する代替モデルを提案する。
- 参考スコア(独自算出の注目度): 63.89087805237351
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While instruction-tuned Large Language Models (LLMs) excel at extracting
information from text, they are not suitable for locating texts conforming to a
given description in a large document collection (semantic retrieval).
Similarity search over embedding vectors does allow to perform retrieval by
query, but the similarity reflected in the embedding is ill-defined and
non-consistent, and is sub-optimal for many use cases. What, then, is a good
query representation for effective retrieval?
We identify the well defined and consistent task of retrieving sentences
based on abstract descriptions of their content. We demonstrate the inadequacy
of current text embeddings and propose an alternative model that significantly
improves when used in standard nearest neighbor search. The model is trained
using positive and negative pairs sourced through prompting a LLM. While it is
easy to source the training material from an LLM, the retrieval task cannot be
performed by the LLM directly. This demonstrates that data from LLMs can be
used not only for distilling more efficient specialized models than the
original LLM, but also for creating new capabilities not immediately possible
using the original model.
- Abstract(参考訳): 命令調整型大言語モデル(llm)はテキストから情報を抽出するのに優れているが、大文書収集(意味検索)において与えられた記述に準拠したテキストの特定には適していない。
組込みベクトル上の類似性検索はクエリによる検索を可能にするが、組込みに反映される類似性は不定義で一貫性がなく、多くのユースケースで副最適である。
では、効率的な検索のための良いクエリ表現は何か?
文章の内容の抽象的な記述に基づいて,文章の検索の明確かつ一貫したタスクを同定する。
本稿では,現在のテキスト埋め込みの不適切さを実証し,近隣の標準的な検索で使用する場合の精度を向上する代替モデルを提案する。
モデルはLDMのプロンプトを通じて、正と負のペアによって訓練される。
LLMからトレーニング材料を引き出すのは容易であるが、LLMから直接は検索タスクを実行できない。
このことは、LLMのデータは、元のLLMよりも効率的な特殊モデルを蒸留するためにだけでなく、元のモデルではすぐには不可能な新しい機能を作成するためにも利用できることを示している。
関連論文リスト
- Making Large Language Models A Better Foundation For Dense Retrieval [19.38740248464456]
デンス検索では,クエリとドキュメント間の意味的関係を表現するために,識別テキストの埋め込みを学習する必要がある。
意味理解におけるLLMの強い能力を考えると、大きな言語モデル(LLM)の使用の恩恵を受けるかもしれない。
本稿では,LLaRA (LLM adapted for dense RetrievAl) を提案する。
論文 参考訳(メタデータ) (2023-12-24T15:10:35Z) - LLatrieval: LLM-Verified Retrieval for Verifiable Generation [71.98112450207368]
検証可能な生成は、大きな言語モデル(LLM)が対応する文書でテキストを生成することを目的としている。
本稿では,LLatrieval (Large Language Model Verified Retrieval) を提案する。
論文 参考訳(メタデータ) (2023-11-14T01:38:02Z) - Open-source Large Language Models are Strong Zero-shot Query Likelihood
Models for Document Ranking [36.90911173089409]
大規模言語モデル(LLM)は、効果的なクエリ類似モデル(QLM)として登場した。
本稿では,近年のLLMにおけるゼロショットランキングの有効性について検討する。
LLMをベースとしたQLMとハイブリッドゼロショットレトリバーを統合した,最先端のランキングシステムを提案する。
論文 参考訳(メタデータ) (2023-10-20T02:54:42Z) - LLM-augmented Preference Learning from Natural Language [19.700169351688768]
大規模言語モデル(LLM)は、より大きな文脈長を扱う。
LLM は、ターゲットテキストが大きければ SotA を一貫して上回る。
ゼロショット学習よりもパフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-10-12T17:17:27Z) - Can Text-based Knowledge Graph Completion Benefit From Zero-Shot Large
Language Models? [10.56565195524981]
大規模言語モデル(LLM)は、NLPタスクにおいて顕著に改善されている。
本研究では,より効率的なテキスト記述がモデル性能を増幅できるかどうかを考察する。
論文 参考訳(メタデータ) (2023-10-12T12:31:23Z) - Query Rewriting for Retrieval-Augmented Large Language Models [139.242907155883]
大規模言語モデル(LLM)は、検索対象のパイプラインで強力なブラックボックスリーダーを動作させる。
この作業では、検索拡張LDMに対する以前の検索テーマ読み込みの代わりに、新しいフレームワークであるRewrite-Retrieve-Readを導入する。
論文 参考訳(メタデータ) (2023-05-23T17:27:50Z) - Zero-Shot Listwise Document Reranking with a Large Language Model [58.64141622176841]
本稿では,タスク固有の学習データを用いることなく,言語モデル(LRL)を用いたリスワイズ・リランカを提案する。
3つのTRECウェブサーチデータセットの実験により、LRLは第1段検索結果の再ランク付け時にゼロショットポイントワイズ法より優れるだけでなく、最終段再ランカとしても機能することが示された。
論文 参考訳(メタデータ) (2023-05-03T14:45:34Z) - Large Language Models are Strong Zero-Shot Retriever [89.16756291653371]
ゼロショットシナリオにおける大規模検索に大規模言語モデル(LLM)を適用するための簡単な手法を提案する。
我々の手法であるRetriever(LameR)は,LLM以外のニューラルモデルに基づいて構築された言語モデルである。
論文 参考訳(メタデータ) (2023-04-27T14:45:55Z) - Self-Prompting Large Language Models for Zero-Shot Open-Domain QA [84.1784903043884]
Open-Domain Question Answering (ODQA) は、背景文書を明示的に提供せずにファクトイドの質問に答えることを目的としている。
ゼロショット設定では、Retriever-Readersのようなカスタマイズされたモデルをトレーニングするデータがないため、このタスクはより難しい。
本稿では,大規模言語モデルのパラメータに格納された膨大な知識を明示的に活用するセルフプロンプトフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-16T18:23:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。