論文の概要: GOLFer: Smaller LM-Generated Documents Hallucination Filter & Combiner for Query Expansion in Information Retrieval
- arxiv url: http://arxiv.org/abs/2506.04762v1
- Date: Thu, 05 Jun 2025 08:45:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.611066
- Title: GOLFer: Smaller LM-Generated Documents Hallucination Filter & Combiner for Query Expansion in Information Retrieval
- Title(参考訳): GOLFer: より小さなLM生成ドキュメント 幻覚フィルタと情報検索におけるクエリ拡張のためのコンビネータ
- Authors: Lingyuan Liu, Mengxiang Zhang,
- Abstract要約: GOLFerは、より小さなオープンソースLMをクエリ拡張に活用する新しい手法である。
より小さなLMで共通する問題である、生成された文書の非実例および矛盾文を検出し、削除する。
より小さなLMを用いて他の手法を一貫して上回り、大型のLDMを用いた手法と競合する性能を維持している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs)-based query expansion for information retrieval augments queries with generated hypothetical documents with LLMs. However, its performance relies heavily on the scale of the language models (LMs), necessitating larger, more advanced LLMs. This approach is costly, computationally intensive, and often has limited accessibility. To address these limitations, we introduce GOLFer - Smaller LMs-Generated Documents Hallucination Filter & Combiner - a novel method leveraging smaller open-source LMs for query expansion. GOLFer comprises two modules: a hallucination filter and a documents combiner. The former detects and removes non-factual and inconsistent sentences in generated documents, a common issue with smaller LMs, while the latter combines the filtered content with the query using a weight vector to balance their influence. We evaluate GOLFer alongside dominant LLM-based query expansion methods on three web search and ten low-resource datasets. Experimental results demonstrate that GOLFer consistently outperforms other methods using smaller LMs, and maintains competitive performance against methods using large-size LLMs, demonstrating its effectiveness.
- Abstract(参考訳): 情報検索のための大規模言語モデル(LLM)ベースのクエリ拡張は、LLMで生成された仮説文書によるクエリを増大させる。
しかし、その性能は言語モデル(LM)のスケールに大きく依存しており、より大きく、より高度なLSMを必要とする。
このアプローチはコストが高く、計算集約的で、アクセシビリティが制限されることが多い。
これらの制限に対処するために、GOLFer - Smaller LMs-Generated Documents Hallucination Filter & Combinerを導入します。
GOLFerは幻覚フィルターとドキュメントコンバインダーの2つのモジュールから構成される。
前者は、生成された文書の非実文および矛盾文を検出し、削除するが、後者は、フィルタされた内容と重みベクトルを用いてクエリを組み合わせ、その影響のバランスをとる。
GOLFerは,3つのWeb検索と10個の低リソースデータセットに対して,LLMベースのクエリ拡張手法とともに評価する。
実験結果から,GOLFerは小型のLMを用いた他の手法よりも一貫して優れており,大規模LDMを用いた手法との競争性能を保ち,その性能を実証している。
関連論文リスト
- Exp4Fuse: A Rank Fusion Framework for Enhanced Sparse Retrieval using Large Language Model-based Query Expansion [0.0]
大規模言語モデル(LLM)は、クエリ拡張のための仮説文書を生成する可能性を示している。
スパースレトリバーの性能を向上させる新しい融合ランキングフレームワークExp4Fuseを導入する。
論文 参考訳(メタデータ) (2025-06-05T08:44:34Z) - CaLM: Contrasting Large and Small Language Models to Verify Grounded Generation [76.31621715032558]
グラウンデッドジェネレーションは、言語モデル(LM)に、より信頼性が高く説明可能な応答を生成する能力を持たせることを目的としている。
本稿では,新しい検証フレームワークであるCaLMを紹介する。
我々のフレームワークは、より少ないパラメトリックメモリに依存する小さなLMを有効活用し、より大きなLMの出力を検証する。
論文 参考訳(メタデータ) (2024-06-08T06:04:55Z) - LLatrieval: LLM-Verified Retrieval for Verifiable Generation [67.93134176912477]
検証可能な生成は、大きな言語モデル(LLM)がドキュメントをサポートするテキストを生成することを目的としている。
本稿では,LLatrieval (Large Language Model Verified Retrieval)を提案する。
実験により、LLatrievalは幅広いベースラインを著しく上回り、最先端の結果が得られることが示された。
論文 参考訳(メタデータ) (2023-11-14T01:38:02Z) - Large Language Models are Strong Zero-Shot Retriever [89.16756291653371]
ゼロショットシナリオにおける大規模検索に大規模言語モデル(LLM)を適用するための簡単な手法を提案する。
我々の手法であるRetriever(LameR)は,LLM以外のニューラルモデルに基づいて構築された言語モデルである。
論文 参考訳(メタデータ) (2023-04-27T14:45:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。