論文の概要: Tackling Query-Focused Summarization as A Knowledge-Intensive Task: A
Pilot Study
- arxiv url: http://arxiv.org/abs/2112.07536v2
- Date: Mon, 31 Jul 2023 12:10:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-02 01:16:44.416494
- Title: Tackling Query-Focused Summarization as A Knowledge-Intensive Task: A
Pilot Study
- Title(参考訳): 知識集約型タスクとしてのクエリ中心の要約:パイロットスタディ
- Authors: Weijia Zhang, Svitlana Vakulenko, Thilina Rajapakse, Yumo Xu,
Evangelos Kanoulas
- Abstract要約: 我々は、クエリ中心の要約(QFS)タスクを、関連するドキュメントにアクセスすることなく、知識集約(KI)タスクとして取り組んだ。
既存のQFSデータセットを適用して、新しいデータセット(KI-QFS)を構築する。
このデータセットでは、クエリに応答するためには、知識コーパスからの文書の検索が必要である。
- 参考スコア(独自算出の注目度): 24.453344448245726
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Query-focused summarization (QFS) requires generating a summary given a query
using a set of relevant documents. However, such relevant documents should be
annotated manually and thus are not readily available in realistic scenarios.
To address this limitation, we tackle the QFS task as a knowledge-intensive
(KI) task without access to any relevant documents. Instead, we assume that
these documents are present in a large-scale knowledge corpus and should be
retrieved first. To explore this new setting, we build a new dataset (KI-QFS)
by adapting existing QFS datasets. In this dataset, answering the query
requires document retrieval from a knowledge corpus. We construct three
different knowledge corpora, and we further provide relevance annotations to
enable retrieval evaluation. Finally, we benchmark the dataset with
state-of-the-art QFS models and retrieval-enhanced models. The experimental
results demonstrate that QFS models perform significantly worse on KI-QFS
compared to the original QFS task, indicating that the knowledge-intensive
setting is much more challenging and offers substantial room for improvement.
We believe that our investigation will inspire further research into addressing
QFS in more realistic scenarios.
- Abstract(参考訳): クエリにフォーカスした要約(qfs)には、関連するドキュメントセットを使用して、与えられたクエリを要約する必要がある。
しかし、このような関連文書は手動で注釈付けされるべきであり、現実的なシナリオでは容易には利用できない。
この制限に対処するため、QFSタスクは、関連する文書にアクセスすることなく、知識集約(KI)タスクとして取り組む。
代わりに、これらの文書は大規模知識コーパスに存在し、まず回収されるべきであると仮定する。
この新たな設定を探るため、既存のQFSデータセットを適用して、新しいデータセット(KI-QFS)を構築します。
このデータセットでは、クエリへの応答には知識コーパスからのドキュメント検索が必要である。
我々は3つの異なる知識コーパスを構築し,検索評価を可能にする関連アノテーションも提供する。
最後に、最新のQFSモデルと検索強化モデルを用いてデータセットをベンチマークする。
実験の結果, KI-QFSでは, 従来のQFSタスクに比べてQFSモデルの方が有意に優れており, 知識集約的な設定の方がはるかに困難であり, 改善の余地がかなりあることが示唆された。
我々は、より現実的なシナリオでQFSに対処するためのさらなる研究を促すと信じている。
関連論文リスト
- IDEAL: Leveraging Infinite and Dynamic Characterizations of Large Language Models for Query-focused Summarization [59.06663981902496]
クエリ中心の要約(QFS)は、特定の関心事に答え、より優れたユーザ制御とパーソナライゼーションを可能にする要約を作成することを目的としている。
本稿では,LLMを用いたQFSモデル,Longthy Document Summarization,およびクエリ-LLMアライメントの2つの重要な特徴について検討する。
これらのイノベーションは、QFS技術分野における幅広い応用とアクセシビリティの道を開いた。
論文 参考訳(メタデータ) (2024-07-15T07:14:56Z) - DEXTER: A Benchmark for open-domain Complex Question Answering using LLMs [3.24692739098077]
オープンドメイン複合質問回答 (QA) は証拠検索と推論において難しい課題である。
我々は、オープンドメイン設定で、最先端の訓練済み高密度・スパース検索モデルを評価する。
BM25のような遅延相互作用モデルや驚くほど語彙的モデルは、事前訓練された高密度検索モデルと比較してよく機能する。
論文 参考訳(メタデータ) (2024-06-24T22:09:50Z) - Automatic Question-Answer Generation for Long-Tail Knowledge [65.11554185687258]
テールエンティティのための特別なQAデータセットを生成するための自動アプローチを提案する。
我々は,新たに生成された長尾QAデータセットに事前学習したLLMを用いて広範な実験を行う。
論文 参考訳(メタデータ) (2024-03-03T03:06:31Z) - QontSum: On Contrasting Salient Content for Query-focused Summarization [22.738731393540633]
クエリ中心の要約(QFS)は、特定のクエリに対処する要約を生成する自然言語処理において難しいタスクである。
本稿では,GARにおけるQFSの役割について述べる。
コントラスト学習を利用したQFSの新しい手法であるQontSumを提案する。
論文 参考訳(メタデータ) (2023-07-14T19:25:35Z) - LMGQS: A Large-scale Dataset for Query-focused Summarization [77.6179359525065]
我々は4つの一般的な要約ベンチマークを新しいQFSベンチマークデータセットであるLMGQSに変換する。
我々は最先端の要約モデルを用いてベースラインを確立する。
複数の既存のQFSベンチマークにおいて、最先端のゼロショットと教師付きパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-05-22T14:53:45Z) - Long-Tailed Question Answering in an Open World [46.67715607552547]
我々は、Long-Tailed QA (OLTQA) を、長い尾の分散データから学習するものとして定義する。
OLTQAモデルを提案し,頭,尾,目立たないタスク間の知識共有を促進する。
大規模なOLTQAデータセットでは、我々のモデルは一貫して最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2023-05-11T04:28:58Z) - A Lightweight Constrained Generation Alternative for Query-focused
Summarization [8.264410236351111]
クエリ中心の要約(QFS)は、あるクエリの必要な情報を満たすドキュメントの要約を提供することを目的としている。
我々は,最近開発された制約付き世代モデルニューロロジカルデコーディング(NLD)を,現在のQFS方式の代替として活用することを提案する。
本稿では,2つの公開QFSコレクションに対するこのアプローチの有効性を,複雑性を著しく低減した最先端モデルとほぼ同等に示す。
論文 参考訳(メタデータ) (2023-04-23T18:43:48Z) - Detect, Retrieve, Comprehend: A Flexible Framework for Zero-Shot
Document-Level Question Answering [6.224211330728391]
研究者は貴重な技術知識を含む何千もの学術文書を作成した。
文書レベルの質問応答(QA)は、人間の提案する質問を適応して多様な知識を抽出できる柔軟なフレームワークを提供する。
本稿では,PDFからテキストを抽出する3段階の文書QAアプローチ,抽出したテキストからエビデンスを抽出して適切な文脈を形成する方法,文脈から知識を抽出して高品質な回答を返すためのQAを提案する。
論文 参考訳(メタデータ) (2022-10-04T23:33:52Z) - Towards Complex Document Understanding By Discrete Reasoning [77.91722463958743]
VQA(Document Visual Question Answering)は、自然言語による質問に答えるために、視覚的に豊富なドキュメントを理解することを目的としている。
我々は3,067の文書ページと16,558の質問応答ペアからなる新しいドキュメントVQAデータセットTAT-DQAを紹介する。
我々は,テキスト,レイアウト,視覚画像など,多要素の情報を考慮に入れたMHSTという新しいモデルを開発し,異なるタイプの質問にインテリジェントに対処する。
論文 参考訳(メタデータ) (2022-07-25T01:43:19Z) - KILT: a Benchmark for Knowledge Intensive Language Tasks [102.33046195554886]
知識集約型言語タスク(KILT)のベンチマークを示す。
KILTのすべてのタスクはウィキペディアのスナップショットと同じだ。
共有密度ベクトル指数とSeq2seqモデルとの結合が強いベースラインであることが分かる。
論文 参考訳(メタデータ) (2020-09-04T15:32:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。