論文の概要: GQE-PRF: Generative Query Expansion with Pseudo-Relevance Feedback
- arxiv url: http://arxiv.org/abs/2108.06010v1
- Date: Fri, 13 Aug 2021 01:09:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-16 13:14:01.666867
- Title: GQE-PRF: Generative Query Expansion with Pseudo-Relevance Feedback
- Title(参考訳): GQE-PRF:擬似関連フィードバックを用いた生成クエリ拡張
- Authors: Minghui Huang, Dong Wang, Shuang Liu, Meizhen Ding
- Abstract要約: PRFに基づくクエリ拡張にテキスト生成モデルを効果的に統合する新しい手法を提案する。
提案手法では,初期クエリと擬似関連フィードバックの両方を条件としたニューラルテキスト生成モデルを用いて,拡張クエリ項を生成する。
2つのベンチマークデータセットを用いて,情報検索タスクに対するアプローチの有効性を評価する。
- 参考スコア(独自算出の注目度): 8.142861977776256
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Query expansion with pseudo-relevance feedback (PRF) is a powerful approach
to enhance the effectiveness in information retrieval. Recently, with the rapid
advance of deep learning techniques, neural text generation has achieved
promising success in many natural language tasks. To leverage the strength of
text generation for information retrieval, in this article, we propose a novel
approach which effectively integrates text generation models into PRF-based
query expansion. In particular, our approach generates augmented query terms
via neural text generation models conditioned on both the initial query and
pseudo-relevance feedback. Moreover, in order to train the generative model, we
adopt the conditional generative adversarial nets (CGANs) and propose the
PRF-CGAN method in which both the generator and the discriminator are
conditioned on the pseudo-relevance feedback. We evaluate the performance of
our approach on information retrieval tasks using two benchmark datasets. The
experimental results show that our approach achieves comparable performance or
outperforms traditional query expansion methods on both the retrieval and
reranking tasks.
- Abstract(参考訳): 擬似関連フィードバック(PRF)を用いたクエリ拡張は、情報検索の有効性を高めるための強力なアプローチである。
近年,ディープラーニング技術の急速な進歩により,ニューラルテキスト生成は多くの自然言語タスクにおいて有望な成功を収めている。
本稿では,情報検索におけるテキスト生成の強みを活用するために,テキスト生成モデルをprfベースのクエリ拡張に効果的に統合する新しい手法を提案する。
特に,初期クエリと疑似関係フィードバックの両方を条件としたニューラルテキスト生成モデルにより,拡張クエリ項を生成する。
さらに,生成モデルを訓練するために条件付き生成敵ネット(cgans)を採用し,擬似関係フィードバックに基づいて生成器と判別器の両方を条件付けしたprf-cgan法を提案する。
2つのベンチマークデータセットを用いて,情報検索タスクに対するアプローチの有効性を評価する。
実験の結果,提案手法はタスクの検索と再ランク付けの両方において,従来のクエリ拡張手法に匹敵する性能あるいは性能を発揮することがわかった。
関連論文リスト
- Enhancing Retrieval Processes for Language Generation with Augmented
Queries [0.0]
本研究は,実事実に基づく正確な応答をモデルに誘導するRAG(Retrieval-Augmented Generation)を通じてこの問題に対処することに焦点を当てる。
スケーラビリティの問題を克服するために、BERTやOrca2といった洗練された言語モデルとユーザクエリを結びつけることを検討する。
実験結果から,RAGによる初期言語モデルの性能向上が示唆された。
論文 参考訳(メタデータ) (2024-02-06T13:19:53Z) - Towards a Unified Language Model for Knowledge-Intensive Tasks Utilizing
External Corpus [22.27534528275182]
各種知識集約型タスクに外部コーパスを利用する統一言語モデルを提案する。
提案手法は, 2種類のバックボーンモデルを用いて, KILTベンチマークを用いて評価した。
実験の結果,検索および下流の知識集約タスクにおいて,モデルの性能が優れていることが示された。
論文 参考訳(メタデータ) (2024-02-02T06:44:22Z) - UniGen: A Unified Generative Framework for Retrieval and Question
Answering with Large Language Models [22.457013726785295]
textbfUnified textbfGenerative framework for search and question answering。
UniGenは両方のタスクを単一の生成モデルに統合し、大きな言語モデルの能力を活用する。
論文 参考訳(メタデータ) (2023-12-18T09:13:41Z) - RegaVAE: A Retrieval-Augmented Gaussian Mixture Variational Auto-Encoder
for Language Modeling [79.56442336234221]
可変オートエンコーダ(VAE)に基づく検索拡張言語モデルであるRegaVAEを紹介する。
テキストコーパスを潜在空間にエンコードし、ソースとターゲットの両方のテキストから現在と将来の情報をキャプチャする。
各種データセットに対する実験結果から,テキスト生成品質と幻覚除去の大幅な改善が示された。
論文 参考訳(メタデータ) (2023-10-16T16:42:01Z) - QontSum: On Contrasting Salient Content for Query-focused Summarization [22.738731393540633]
クエリ中心の要約(QFS)は、特定のクエリに対処する要約を生成する自然言語処理において難しいタスクである。
本稿では,GARにおけるQFSの役割について述べる。
コントラスト学習を利用したQFSの新しい手法であるQontSumを提案する。
論文 参考訳(メタデータ) (2023-07-14T19:25:35Z) - Enhancing Retrieval-Augmented Large Language Models with Iterative
Retrieval-Generation Synergy [164.83371924650294]
検索と生成を反復的に同期させるIter-RetGenと呼ばれる手法により,高い性能が得られることを示す。
モデル出力は、タスクを完了するために必要なものを示し、より関連する知識を取得するための情報的コンテキストを提供する。
Iter-RetGenプロセスは、すべての知識を全体として取得し、構造的な制約なしに生成時の柔軟性をほとんど保持します。
論文 参考訳(メタデータ) (2023-05-24T16:17:36Z) - Active Retrieval Augmented Generation [123.68874416084499]
外部知識資源から情報を取得することで、大きな言語モデル(LM)を拡張することは、有望な解決策である。
ほとんどの既存の検索拡張LMは、入力に基づいて一度だけ情報を検索する検索と生成のセットアップを採用している。
本稿では,将来的な内容を予測するために,文の予測を反復的に利用する汎用手法であるフォワード・フォワード・アクティブ・レトリヴァル・ジェネレーション・ジェネレーション(FLARE)を提案する。
論文 参考訳(メタデータ) (2023-05-11T17:13:40Z) - Modified Query Expansion Through Generative Adversarial Networks for
Information Extraction in E-Commerce [1.713291434132985]
本研究は,eコマースにおける情報検索の有効性を高めるために,GAN(Generative Adversarial Network)を用いたクエリ拡張のための代替手法を提案する。
そこで本研究では,クエリを合成クエリで拡張することでキーワードを解消する,改良されたQE条件付きGAN(mQE-CGAN)フレームワークを提案する。
実験により,mQE-CGANフレームワークにおける条件構造の利用により,生成したシーケンスと参照ドキュメントのセマンティックな類似性が10%近く向上することを示した。
論文 参考訳(メタデータ) (2022-12-30T19:21:44Z) - Generate rather than Retrieve: Large Language Models are Strong Context
Generators [74.87021992611672]
本稿では,文書検索を大規模言語モデル生成器に置き換えることで,知識集約型タスクを解く新しい視点を提案する。
我々は,提案手法をgenRead (genRead) と呼び,まず大きな言語モデルに対して,与えられた質問に基づいて文脈文書を生成し,次に生成された文書を読み出して最終回答を生成する。
論文 参考訳(メタデータ) (2022-09-21T01:30:59Z) - Generation-Augmented Retrieval for Open-domain Question Answering [134.27768711201202]
GAR(Generation-Augmented Retrieval)は、オープンドメインの質問に答える機能である。
クエリーに対して多様なコンテキストを生成することは、結果の融合が常により良い検索精度をもたらすので有益であることを示す。
GARは、抽出読取装置を備えた場合、抽出QA設定の下で、自然質問およびトリビアQAデータセットの最先端性能を達成する。
論文 参考訳(メタデータ) (2020-09-17T23:08:01Z) - Unsupervised Text Generation by Learning from Search [86.51619839836331]
TGLSは、教師なしテキスト生成のための新しいフレームワークである。
実世界の自然言語生成タスクであるパラフレーズ生成とテキストの形式化におけるTGLSの有効性を示す。
論文 参考訳(メタデータ) (2020-07-09T04:34:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。