論文の概要: Knowledge Compression via Question Generation: Enhancing Multihop Document Retrieval without Fine-tuning
- arxiv url: http://arxiv.org/abs/2506.13778v1
- Date: Mon, 09 Jun 2025 16:15:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.124227
- Title: Knowledge Compression via Question Generation: Enhancing Multihop Document Retrieval without Fine-tuning
- Title(参考訳): 質問生成による知識圧縮:微調整なしのマルチホップ文書検索の強化
- Authors: Anvi Alex Eponon, Moein Shahiki-Tash, Ildar Batyrshin, Christian E. Maldonado-Sifuentes, Grigori Sidorov, Alexander Gelbukh,
- Abstract要約: 本研究では,細調整や従来のチャンキングを必要とせずに,検索強化生成(RAG)システムを改善する質問ベースの知識符号化手法を提案する。
テキストコンテンツは語彙空間と意味空間にまたがって生成された質問を用いてエンコードされ、ターゲット検索キューと独自の構文再構成手法が組み合わさって生成される。
109件の科学論文のシングルホップ検索では、Recall@3が0.84となり、従来のチャンキング手法よりも60%向上した。
- 参考スコア(独自算出の注目度): 42.35305639777465
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study presents a question-based knowledge encoding approach that improves retrieval-augmented generation (RAG) systems without requiring fine-tuning or traditional chunking. We encode textual content using generated questions that span the lexical and semantic space, creating targeted retrieval cues combined with a custom syntactic reranking method. In single-hop retrieval over 109 scientific papers, our approach achieves a Recall@3 of 0.84, outperforming traditional chunking methods by 60 percent. We also introduce "paper-cards", concise paper summaries under 300 characters, which enhance BM25 retrieval, increasing MRR@3 from 0.56 to 0.85 on simplified technical queries. For multihop tasks, our reranking method reaches an F1 score of 0.52 with LLaMA2-Chat-7B on the LongBench 2WikiMultihopQA dataset, surpassing chunking and fine-tuned baselines which score 0.328 and 0.412 respectively. This method eliminates fine-tuning requirements, reduces retrieval latency, enables intuitive question-driven knowledge access, and decreases vector storage demands by 80%, positioning it as a scalable and efficient RAG alternative.
- Abstract(参考訳): 本研究では,細調整や従来のチャンキングを必要とせずに,検索強化生成(RAG)システムを改善する質問ベースの知識符号化手法を提案する。
テキストコンテンツは語彙空間と意味空間にまたがって生成された質問を用いてエンコードされ、ターゲット検索キューと独自の構文再構成手法が組み合わさって生成される。
109件の科学論文のシングルホップ検索では、Recall@3が0.84となり、従来のチャンキング手法よりも60%向上した。
また、300文字未満の簡潔な紙要約である「ペーパーカード」を導入し、BM25検索を強化し、単純化された技術的クエリでMRR@3を0.56から0.85に増やした。
マルチホップタスクでは,LongBench 2WikiMultihopQAデータセット上のLLaMA2-Chat-7BでF1スコア0.52に達し,それぞれ0.328点,0.412点,チャンキングおよび微調整ベースラインを超えた。
この方法は,微調整要求を解消し,検索遅延を低減し,直感的な質問駆動型知識アクセスを可能にし,ベクトルストレージ要求を80%削減し,スケーラブルで効率的なRAG代替品として位置づける。
関連論文リスト
- TreeHop: Generate and Filter Next Query Embeddings Efficiently for Multi-hop Question Answering [27.37434534716611]
TreeHopはマルチホップ質問応答のための埋め込みレベルのフレームワークである。
TreeHopはクエリの埋め込みを動的に更新する。
TreeHopは、知識集約型アプリケーションにデプロイするための、より速く、よりコスト効率の良いソリューションです。
論文 参考訳(メタデータ) (2025-04-28T01:56:31Z) - AUEB-Archimedes at RIRAG-2025: Is obligation concatenation really all you need? [11.172264842171682]
本稿では,RIRAG-2025のために開発したシステムについて述べる。
生成された回答は、参照フリーでモデルベースのメトリクスであるRePASを用いて評価される。
抽出された節から重要な文(「無視」)を抽出するRePASの神経成分を利用することで、精度の高いスコア(0.947)が得られることを示す。
そして、いくつかの代替案の中で最も優れたRePASで答えを選択することで、より可読で比較的高い結果が得られる可読で一貫性のある回答を生成することができることを示す。
論文 参考訳(メタデータ) (2024-12-16T08:54:21Z) - xRAG: Extreme Context Compression for Retrieval-augmented Generation with One Token [108.7069350303884]
xRAGは、検索拡張生成に適した、革新的なコンテキスト圧縮手法である。
xRAGは、言語モデル表現空間に文書の埋め込みをシームレスに統合する。
実験の結果、xRAGは6つの知識集約タスクで平均10%以上の改善を達成していることがわかった。
論文 参考訳(メタデータ) (2024-05-22T16:15:17Z) - Semi-Parametric Retrieval via Binary Bag-of-Tokens Index [71.78109794895065]
SemI-parametric Disentangled Retrieval (SiDR)は、ニューラルパラメータから検索インデックスを分離するバイエンコーダ検索フレームワークである。
SiDRは、検索のための非パラメトリックトークン化インデックスをサポートし、BM25のようなインデックス化の複雑さを著しく改善した。
論文 参考訳(メタデータ) (2024-05-03T08:34:13Z) - LOCR: Location-Guided Transformer for Optical Character Recognition [55.195165959662795]
自動回帰中にトランスフォーマーアーキテクチャに位置案内を組み込むモデルであるLOCRを提案する。
125Kの学術文書ページから777万以上のテキスト配置ペアからなるデータセット上でモデルをトレーニングする。
これは、編集距離、BLEU、METEOR、F測定によって測定されたarXivから構築されたテストセットの既存のメソッドよりも優れています。
論文 参考訳(メタデータ) (2024-03-04T15:34:12Z) - Differentiable Reasoning over a Virtual Knowledge Base [156.94984221342716]
コーパスを仮想知識ベース(KB)として,複雑なマルチホップ質問に答えるタスクについて検討する。
特に、コーパス内のエンティティの参照間の関係の経路をソフトに追従し、KBのようにテキストデータをトラバースするDrKITについて述べる。
DrKITは非常に効率的で、既存のマルチホップシステムよりも毎秒10-100倍のクエリを処理する。
論文 参考訳(メタデータ) (2020-02-25T03:13:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。