論文の概要: Augmenting LLM Reasoning with Dynamic Notes Writing for Complex QA
- arxiv url: http://arxiv.org/abs/2505.16293v1
- Date: Thu, 22 May 2025 06:45:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.093561
- Title: Augmenting LLM Reasoning with Dynamic Notes Writing for Complex QA
- Title(参考訳): 複雑なQAのための動的ノートによるLLM推論の強化
- Authors: Rishabh Maheshwary, Masoud Hashemi, Khyati Mahajan, Shiva Krishna Reddy Malay, Sai Rajeswar, Sathwik Tejaswi Madhusudhan, Spandana Gella, Vikas Yadav,
- Abstract要約: ノートライティングは、各ステップで取得した文書から簡潔で関連するメモを生成する方法である。
これにより、大規模言語モデルの有効文脈長が間接的に増加する。
2つのモデルと4つの評価データセットにまたがる3つの反復RAG手法でその効果を実証する。
- 参考スコア(独自算出の注目度): 10.74822312765908
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Iterative RAG for multi-hop question answering faces challenges with lengthy contexts and the buildup of irrelevant information. This hinders a model's capacity to process and reason over retrieved content and limits performance. While recent methods focus on compressing retrieved information, they are either restricted to single-round RAG, require finetuning or lack scalability in iterative RAG. To address these challenges, we propose Notes Writing, a method that generates concise and relevant notes from retrieved documents at each step, thereby reducing noise and retaining only essential information. This indirectly increases the effective context length of Large Language Models (LLMs), enabling them to reason and plan more effectively while processing larger volumes of input text. Notes Writing is framework agnostic and can be integrated with different iterative RAG methods. We demonstrate its effectiveness with three iterative RAG methods, across two models and four evaluation datasets. Notes writing yields an average improvement of 15.6 percentage points overall, with minimal increase in output tokens.
- Abstract(参考訳): マルチホップ質問応答のための反復RAGは、長いコンテキストと無関係な情報の蓄積を伴う課題に直面します。
これにより、取得したコンテンツを処理し、推論するモデルの能力が妨げられ、パフォーマンスが制限されます。
近年の手法では、検索した情報を圧縮することに重点を置いているが、それらは単一ラウンドのRAGに制限されるか、微調整を必要とするか、反復RAGのスケーラビリティが欠如している。
これらの課題に対処するため,各ステップで取得した文書から簡潔かつ関連性の高いメモを生成する手法であるNotes Writingを提案し,ノイズを低減し,必須情報のみを保持する。
これにより、Large Language Models (LLM) の効果的なコンテキスト長を間接的に増加させ、より大きな入力テキストを処理しながら、より効率的に推論と計画を行うことができる。
注記 書き込みはフレームワークに依存しないため、異なる反復RAGメソッドと統合することができる。
2つのモデルと4つの評価データセットにまたがる3つの反復RAG手法でその効果を実証する。
ノートの書き込みでは、平均15.6ポイントの改善が得られ、出力トークンは最小限に増加する。
関連論文リスト
- QA-prompting: Improving Summarization with Large Language Models using Question-Answering [0.0]
言語モデル(LM)は自然言語処理に革命をもたらし、プロンプトやテキスト内学習を通じて高品質なテキスト生成を可能にした。
本稿では,質問応答を要約生成の中間段階として利用する要約の簡易なプロンプト手法であるQA-promptingを提案する。
提案手法はキー情報を抽出し,テキストのコンテキストを強化して位置バイアスを緩和し,タスク毎の単一LMコールにおける要約を改善する。
論文 参考訳(メタデータ) (2025-05-20T13:29:36Z) - Multiple Abstraction Level Retrieve Augment Generation [4.516242893120263]
大規模言語モデル(LLM)を利用した検索型拡張生成(RAG)モデルは、新しいデータや知識に適応するためのより高速でコスト効率の高いソリューションを提供する。
本稿では,多文レベル,段落レベル,セクションレベル,文書レベルを含む,複数抽象レベル(MAL)のチャンクを用いた新しいRAG手法を提案する。
従来の単一レベルRAGアプローチと比較して,Glyco関連論文では,AIによるQ/A回答の正当性の評価が25.739%向上した。
論文 参考訳(メタデータ) (2025-01-28T13:49:39Z) - Harnessing Large Language Models for Knowledge Graph Question Answering via Adaptive Multi-Aspect Retrieval-Augmentation [81.18701211912779]
本稿では,KG(Amar)フレームワーク上での適応型マルチアスペクト検索手法を提案する。
この方法は、エンティティ、リレーション、サブグラフを含む知識を検索し、検索した各テキストを即時埋め込みに変換する。
提案手法は2つの共通データセットに対して最先端の性能を達成した。
論文 参考訳(メタデータ) (2024-12-24T16:38:04Z) - BRIEF: Bridging Retrieval and Inference for Multi-hop Reasoning via Compression [91.23933111083389]
Retrieval-augmented Generation (RAG)は、外部知識を統合することで、大きな言語モデル(LLM)を補完することができる。
本稿では,クエリ対応マルチホップ推論を行う軽量なアプローチであるBRIEFを提案する。
オープンソースモデルで構築した合成データに基づいて,BRIEFはより簡潔な要約を生成する。
論文 参考訳(メタデータ) (2024-10-20T04:24:16Z) - GARLIC: LLM-Guided Dynamic Progress Control with Hierarchical Weighted Graph for Long Document QA [16.945257645760428]
過去には、Retrieval-Augmented Generation (RAG)メソッドがテキストをチャンクに分割して、長いドキュメントを扱う言語モデルを実現していた。
近年のツリーベースRAG法では,グローバルなコンテキストを保ちながら詳細な情報を取得することができる。
階層重みグラフ(GARLIC)を用いた LLM-Guided Dynamic Progress Control と呼ばれる新しい検索手法を提案する。
論文 参考訳(メタデータ) (2024-10-07T07:02:09Z) - Retrieve, Summarize, Plan: Advancing Multi-hop Question Answering with an Iterative Approach [6.549143816134531]
二重機能要約器を備えたReSPと呼ばれる新しい反復RAG法を提案する。
マルチホップ質問応答HotpotQAと2WikiMultihopQAの実験結果から,本手法が最先端技術よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-07-18T02:19:00Z) - Making Retrieval-Augmented Language Models Robust to Irrelevant Context [55.564789967211844]
ALMの重要なデシプラタムは、検索された情報が関連する場合のパフォーマンスをモデル化するのに役立つことである。
近年の研究では、検索の増大がパフォーマンスに悪影響を及ぼすことが示されている。
論文 参考訳(メタデータ) (2023-10-02T18:52:35Z) - Active Learning for Abstractive Text Summarization [50.79416783266641]
本稿では,抽象テキスト要約におけるアクティブラーニングのための最初の効果的なクエリ戦略を提案する。
ALアノテーションにおける私たちの戦略は、ROUGEと一貫性スコアの点からモデル性能を向上させるのに役立ちます。
論文 参考訳(メタデータ) (2023-01-09T10:33:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。