論文の概要: Enhancing Post-Hoc Attributions in Long Document Comprehension via Coarse Grained Answer Decomposition
- arxiv url: http://arxiv.org/abs/2409.17073v3
- Date: Wed, 13 Nov 2024 12:46:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-14 19:25:03.389652
- Title: Enhancing Post-Hoc Attributions in Long Document Comprehension via Coarse Grained Answer Decomposition
- Title(参考訳): 粗粒Answer分解による長期文書理解におけるポストホック属性の促進
- Authors: Pritika Ramu, Koustava Goswami, Apoorv Saxena, Balaji Vasan Srinivasan,
- Abstract要約: ポストホック属性システムは、回答テキストをソース文書にマッピングするように設計されているが、このマッピングの粒度は未解決である。
そこで本研究では,テンプレートを用いたテキスト内学習を用いて,帰属に対する回答の事実分解に関する新しい手法を提案し,検討する。
- 参考スコア(独自算出の注目度): 10.585679421637948
- License:
- Abstract: Accurately attributing answer text to its source document is crucial for developing a reliable question-answering system. However, attribution for long documents remains largely unexplored. Post-hoc attribution systems are designed to map answer text back to the source document, yet the granularity of this mapping has not been addressed. Furthermore, a critical question arises: What exactly should be attributed? This involves identifying the specific information units within an answer that require grounding. In this paper, we propose and investigate a novel approach to the factual decomposition of generated answers for attribution, employing template-based in-context learning. To accomplish this, we utilize the question and integrate negative sampling during few-shot in-context learning for decomposition. This approach enhances the semantic understanding of both abstractive and extractive answers. We examine the impact of answer decomposition by providing a thorough examination of various attribution approaches, ranging from retrieval-based techniques to LLM-based attributors.
- Abstract(参考訳): 信頼性の高い質問応答システムを開発するためには,正確な回答文のソース文書化が不可欠である。
しかし、長文への帰属はほとんど解明されていない。
ポストホック属性システムは、回答テキストをソース文書にマッピングするように設計されているが、このマッピングの粒度は未解決である。
さらに、批判的な疑問が浮かび上がっています。
これには、接地を必要とする回答の中で、特定の情報単位を特定することが含まれる。
本稿では,テンプレートを用いたテキスト内学習を用いて,帰納的回答の事実分解のための新しい手法を提案し,検討する。
そこで本研究では,この疑問を生かし,数発のインコンテクスト学習におけるネガティブサンプリングを分解に活用する。
このアプローチは抽象的回答と抽出的回答の両方の意味的理解を強化する。
本研究では,検索に基づく手法からLCMに基づく属性まで,様々な属性アプローチの徹底的な検証を行うことで,回答の分解の影響について検討する。
関連論文リスト
- Enhancing Answer Attribution for Faithful Text Generation with Large Language Models [5.065947993017158]
本稿では,より独立的で文脈的なクレームを生成できる新しい手法を提案する。
新しい手法が評価され,回答帰属成分の性能が向上することが示されている。
論文 参考訳(メタデータ) (2024-10-22T15:37:46Z) - Contri(e)ve: Context + Retrieve for Scholarly Question Answering [0.0]
本稿では,オープンソースのLarge Language Model (LLM): Scholarly-QALDデータセット用のLlama3.1を提案する。
まず、異なる構造化データソースと非構造化データソースから質問に関連するコンテキストを抽出する。
第2に,LLMの情報検索性能を向上させるために,プロンプトエンジニアリングを実装した。
論文 参考訳(メタデータ) (2024-09-13T17:38:47Z) - Attribute or Abstain: Large Language Models as Long Document Assistants [58.32043134560244]
LLMは人間が長い文書を扱うのを助けることができるが、幻覚で知られている。
既存の属性に対するアプローチはRAG設定でのみ評価されている。
これは、検索が不要な長いドキュメント設定とは大きく異なるが、助けになる可能性がある。
そこで本研究では,6種類の多種多様文書タスクのベンチマークであるLABと,異なる大きさの5つのLLMに対する属性に対する異なるアプローチの実験を行う。
論文 参考訳(メタデータ) (2024-07-10T16:16:02Z) - Learning to Filter Context for Retrieval-Augmented Generation [75.18946584853316]
生成モデルは、部分的にまたは完全に無関係な経路が与えられた出力を生成するために要求される。
FILCOは、語彙と情報理論のアプローチに基づいて有用なコンテキストを特定する。
テスト時に検索したコンテキストをフィルタリングできるコンテキストフィルタリングモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-11-14T18:41:54Z) - SEMQA: Semi-Extractive Multi-Source Question Answering [94.04430035121136]
本稿では,複数ソースを半抽出的に要約することで,複数の質問に答える新しいQAタスクを提案する。
この種の最初のデータセットであるQuoteSumを作成し、自然および生成された質問に対する人間による半抽出的な回答を提示する。
論文 参考訳(メタデータ) (2023-11-08T18:46:32Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Understanding Retrieval Augmentation for Long-Form Question Answering [44.19142029392175]
本稿では,長文質問応答における検索強化言語モデル(LM)について検討する。
モデルから生成した回答を同一の証拠文書を用いて比較することにより,検索強化が異なるLMに与える影響を解析する。
論文 参考訳(メタデータ) (2023-10-18T17:59:10Z) - Enhance Long Text Understanding via Distilled Gist Detector from
Abstractive Summarization [7.851265919027389]
我々は、長文理解において、ジスト関連かつ無関係な情報を解き放つ方法の問題点を考察する。
文書分類, 遠隔教師付きオープンドメイン質問応答 (DS-QA) および非並列テキストスタイルの転送実験により, 本手法がベースラインモデルの性能を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2021-10-10T09:21:24Z) - Discrete Reasoning Templates for Natural Language Understanding [79.07883990966077]
我々は,複雑な質問をより単純な質問に分解する手法を提案する。
事前定義された推論テンプレートの指示に従って最終回答を導出する。
我々のアプローチは、解釈可能でありながら最先端技術と競合し、監督をほとんど必要としないことを示す。
論文 参考訳(メタデータ) (2021-04-05T18:56:56Z) - Knowledge-Aided Open-Domain Question Answering [58.712857964048446]
本稿では,知識支援型オープンドメインQA(KAQA)手法を提案する。
文書検索の際、質問と他の文書との関係を考慮し、候補文書を採点する。
回答の再ランク付けの間、候補の回答は、自身のコンテキストだけでなく、他の文書からのヒントを使って再ランクされる。
論文 参考訳(メタデータ) (2020-06-09T13:28:57Z) - Natural language processing for word sense disambiguation and
information extraction [0.0]
Thesaurus を用いた Word Sense Disambiguation の新しいアプローチを提案する。
ファジィ論理に基づく文書検索手法について解説し,その応用例を示した。
この戦略は、明らかな推論のデンプスター・シェーファー理論に基づく新しい戦略の提示で締めくくられる。
論文 参考訳(メタデータ) (2020-04-05T17:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。