論文の概要: Can't Remember Details in Long Documents? You Need Some R&R
- arxiv url: http://arxiv.org/abs/2403.05004v1
- Date: Fri, 8 Mar 2024 03:03:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 21:16:41.364147
- Title: Can't Remember Details in Long Documents? You Need Some R&R
- Title(参考訳): 長い文書で詳細を思い出せないか?
R&Rが必要。
- Authors: Devanshu Agrawal, Shang Gao, Martin Gajek
- Abstract要約: 2つの新しいプロンプトベースのメソッドを組み合わせた$textitR&R$を紹介します。
リプロンプトでは、コンテクスト文書を通して定期的にプロンプト命令を繰り返す。
ICRでは、LSMに直接答えるように指示するのではなく、最上位の$k$パス番号を検索するように指示する。
- 参考スコア(独自算出の注目度): 4.465645631325957
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Long-context large language models (LLMs) hold promise for tasks such as
question-answering (QA) over long documents, but they tend to miss important
information in the middle of context documents (arXiv:2307.03172v3). Here, we
introduce $\textit{R&R}$ -- a combination of two novel prompt-based methods
called $\textit{reprompting}$ and $\textit{in-context retrieval}$ (ICR) -- to
alleviate this effect in document-based QA. In reprompting, we repeat the
prompt instructions periodically throughout the context document to remind the
LLM of its original task. In ICR, rather than instructing the LLM to answer the
question directly, we instruct it to retrieve the top $k$ passage numbers most
relevant to the given question, which are then used as an abbreviated context
in a second QA prompt. We test R&R with GPT-4 Turbo and Claude-2.1 on documents
up to 80k tokens in length and observe a 16-point boost in QA accuracy on
average. Our further analysis suggests that R&R improves performance on long
document-based QA because it reduces the distance between relevant context and
the instructions. Finally, we show that compared to short-context chunkwise
methods, R&R enables the use of larger chunks that cost fewer LLM calls and
output tokens, while minimizing the drop in accuracy.
- Abstract(参考訳): 長文大言語モデル(LLM)は、長い文書に対する質問回答(QA)のようなタスクを約束するが、コンテキスト文書(arXiv:2307.03172v3)の途中で重要な情報を見逃す傾向がある。
ここでは、$\textit{R&R}$($\textit{reprompting}$と$\textit{in-context search}$(ICR)という2つの新しいプロンプトベースのメソッドを組み合わせて、この効果をドキュメントベースのQAで緩和する。
再入力時に、プロンプト命令をコンテキスト文書全体に定期的に繰り返し、元のタスクのllmを思い出させる。
ICRでは、LLMに質問に直接答えるよう指示するのではなく、与えられた質問に最も関係のある最上位の$k$パス番号を検索するように指示し、第2のQAプロンプトで短縮コンテキストとして使用される。
GPT-4 Turbo と Claude-2.1 で R&R を最大 80k のトークンでテストし,QA の精度を平均 16 ポイント向上させた。
さらに分析した結果,R&Rは関連するコンテキストと命令間の距離を小さくするため,長い文書ベースのQAの性能を向上させることが示唆された。
最後に、短文チャンクワイズ手法と比較して、R&Rは、精度の低下を最小限に抑えつつ、LCM呼び出しや出力トークンを少なくする大きなチャンクの使用を可能にすることを示す。
関連論文リスト
- LLoCO: Learning Long Contexts Offline [63.3458260335454]
LLoCOは,LoRAを用いた文脈圧縮,検索,パラメータ効率の微調整を組み合わせた手法である。
我々は,LLoCOの長文質問応答データセットに対するアプローチを検証し,LLoCOが文脈内学習を著しく上回ることを示す。
論文 参考訳(メタデータ) (2024-04-11T17:57:22Z) - A Simple LLM Framework for Long-Range Video Question-Answering [66.68887077133355]
長距離ビデオ質問応答(LVQA)のための言語ベースのフレームワークであるLLoViを提案する。
我々のアプローチでは、フレーム/クリップレベルの視覚キャプタと大言語モデル(GPT-3.5, GPT-4)を併用する。
提案手法は50.3%の精度を達成し,従来のベストパフォーマンスアプローチを18.1%(絶対ゲイン)で上回った。
論文 参考訳(メタデータ) (2023-12-28T18:58:01Z) - Drilling Down into the Discourse Structure with LLMs for Long Document
Question Answering [5.022057415488129]
本稿では,文書に共通する談話構造を利用した一組の手法を提案する。
複雑なマルチホップ質問応答において,我々のアプローチをテキスト自己認識推論エージェントと組み合わせて,最高のゼロショット性能を実現する方法を示す。
論文 参考訳(メタデータ) (2023-11-22T18:22:56Z) - In-Context Pretraining: Language Modeling Beyond Document Boundaries [141.22670357089385]
In-Context Pretrainingは、言語モデルが関連するドキュメントのシーケンスで事前トレーニングされる新しいアプローチである。
本稿では, 近接探索を効率的に行うための近似アルゴリズムを提案する。
より複雑なコンテキスト推論を必要とするタスクの顕著な改善が見られます。
論文 参考訳(メタデータ) (2023-10-16T17:57:12Z) - LeanContext: Cost-Efficient Domain-Specific Question Answering Using
LLMs [1.9468358338146958]
質問応答(QA)は大規模言語モデル(LLM)の重要な応用である
本稿では、人間指向の要約からAIモデルフレンドリーな要約へ移行する。
当社のアプローチであるLeanContextは、クエリと密接に一致したコンテキストから、$k$キー文を効率的に抽出します。
論文 参考訳(メタデータ) (2023-09-02T06:33:18Z) - DAPR: A Benchmark on Document-Aware Passage Retrieval [64.5769639710927]
我々は,このタスクemphDocument-Aware Passage Retrieval (DAPR)を提案する。
State-of-The-Art(SoTA)パスレトリバーのエラーを分析しながら、大きなエラー(53.5%)は文書コンテキストの欠如に起因する。
提案するベンチマークにより,検索システムの開発・比較を今後行うことができる。
論文 参考訳(メタデータ) (2023-05-23T10:39:57Z) - Interleaving Retrieval with Chain-of-Thought Reasoning for
Knowledge-Intensive Multi-Step Questions [50.114651561111245]
マルチステップ質問応答のための新しいアプローチであるIRCoTを提案する。
CoTのステップで検索をインターリーブし、CoTで検索を誘導し、検索結果を用いてCoTを改善する。
論文 参考訳(メタデータ) (2022-12-20T18:26:34Z) - New Methods & Metrics for LFQA tasks [0.0]
長い形式の質問応答タスクでは、クエリに関連する文書を検索し、それを使用して段落長の回答を作成する必要がある。
この作業では、トレイン/バリデーション/テストのデータセットのオーバーラップ、自動メトリクスの欠如、検索したドキュメントに“接地”されていない回答の生成に対処する。
論文 参考訳(メタデータ) (2021-12-26T18:38:05Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。