論文の概要: A Controllable QA-based Framework for Decontextualization
- arxiv url: http://arxiv.org/abs/2305.14772v1
- Date: Wed, 24 May 2023 06:23:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 19:12:30.167464
- Title: A Controllable QA-based Framework for Decontextualization
- Title(参考訳): Decontextualizationのための制御可能なQAベースのフレームワーク
- Authors: Benjamin Newman, Luca Soldaini, Raymond Fok, Arman Cohan, Kyle Lo
- Abstract要約: 本稿では,デコンテクスト化のための質問応答フレームワークを提案する。
我々は,最先端のLCMがエンドツーエンドのアプローチと競合し続けていることを示す。
- 参考スコア(独自算出の注目度): 29.867518951531263
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many real-world applications require surfacing extracted snippets to users,
whether motivated by assistive tools for literature surveys or document
cross-referencing, or needs to mitigate and recover from model generated
inaccuracies., Yet, these passages can be difficult to consume when divorced
from their original document context. In this work, we explore the limits of
LLMs to perform decontextualization of document snippets in user-facing
scenarios, focusing on two real-world settings - question answering and
citation context previews for scientific documents. We propose a
question-answering framework for decontextualization that allows for better
handling of user information needs and preferences when determining the scope
of rewriting. We present results showing state-of-the-art LLMs under our
framework remain competitive with end-to-end approaches. We also explore
incorporating user preferences into the system, finding our framework allows
for controllability.
- Abstract(参考訳): 多くの現実世界のアプリケーションは、文献調査や文書の相互参照のための補助ツールによって動機付けられるか、あるいは生成された不正確なモデルから緩和および回復する必要があるか、抽出されたスニペットをユーザに提示する必要がある。
しかし、これらの節は、元の文書のコンテキストから切り離されたときに消費することが難しい。
本研究では,学術文書の質問応答と引用コンテキストプレビューという,現実的な2つの設定に焦点をあて,ユーザ向けシナリオにおける文書スニペットの非コンテクスチャ化を行うLLMの限界について検討する。
書き直し範囲を決定する際に,ユーザ情報のニーズや好みをよりよく扱えるような非コンテキスト化のための質問応答フレームワークを提案する。
我々は,最先端のLCMがエンドツーエンドのアプローチと競合し続けていることを示す。
また,ユーザの好みをシステムに組み込むことも検討し,制御性を実現するためのフレームワークを見出した。
関連論文リスト
- Contri(e)ve: Context + Retrieve for Scholarly Question Answering [0.0]
本稿では,オープンソースのLarge Language Model (LLM): Scholarly-QALDデータセット用のLlama3.1を提案する。
まず、異なる構造化データソースと非構造化データソースから質問に関連するコンテキストを抽出する。
第2に,LLMの情報検索性能を向上させるために,プロンプトエンジニアリングを実装した。
論文 参考訳(メタデータ) (2024-09-13T17:38:47Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - PDFTriage: Question Answering over Long, Structured Documents [60.96667912964659]
構造化文書をプレーンテキストとして表現することは、これらの文書をリッチな構造でユーザ精神モデルと矛盾する。
本稿では,構造や内容に基づいて,モデルがコンテキストを検索できるPDFTriageを提案する。
ベンチマークデータセットは,80以上の構造化文書に900以上の人間が生成した質問からなる。
論文 参考訳(メタデータ) (2023-09-16T04:29:05Z) - DAPR: A Benchmark on Document-Aware Passage Retrieval [57.45793782107218]
我々は,このタスクemphDocument-Aware Passage Retrieval (DAPR)を提案する。
State-of-The-Art(SoTA)パスレトリバーのエラーを分析しながら、大きなエラー(53.5%)は文書コンテキストの欠如に起因する。
提案するベンチマークにより,検索システムの開発・比較を今後行うことができる。
論文 参考訳(メタデータ) (2023-05-23T10:39:57Z) - Detect, Retrieve, Comprehend: A Flexible Framework for Zero-Shot
Document-Level Question Answering [6.224211330728391]
研究者は貴重な技術知識を含む何千もの学術文書を作成した。
文書レベルの質問応答(QA)は、人間の提案する質問を適応して多様な知識を抽出できる柔軟なフレームワークを提供する。
本稿では,PDFからテキストを抽出する3段階の文書QAアプローチ,抽出したテキストからエビデンスを抽出して適切な文脈を形成する方法,文脈から知識を抽出して高品質な回答を返すためのQAを提案する。
論文 参考訳(メタデータ) (2022-10-04T23:33:52Z) - Generate rather than Retrieve: Large Language Models are Strong Context
Generators [74.87021992611672]
本稿では,文書検索を大規模言語モデル生成器に置き換えることで,知識集約型タスクを解く新しい視点を提案する。
我々は,提案手法をgenRead (genRead) と呼び,まず大きな言語モデルに対して,与えられた質問に基づいて文脈文書を生成し,次に生成された文書を読み出して最終回答を生成する。
論文 参考訳(メタデータ) (2022-09-21T01:30:59Z) - Design Challenges for a Multi-Perspective Search Engine [44.48345943046946]
我々は、新しい視点指向文書検索パラダイムについて研究する。
目的を達成するために,自然言語理解の課題を議論し,評価する。
我々は,プロトタイプシステムを用いて,我々のパラダイムの有用性を評価する。
論文 参考訳(メタデータ) (2021-12-15T18:59:57Z) - Explaining Relationships Between Scientific Documents [55.23390424044378]
本稿では,2つの学術文書間の関係を自然言語テキストを用いて記述する課題に対処する。
本稿では154K文書から622Kサンプルのデータセットを作成する。
論文 参考訳(メタデータ) (2020-02-02T03:54:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。