論文の概要: QontSum: On Contrasting Salient Content for Query-focused Summarization
- arxiv url: http://arxiv.org/abs/2307.07586v1
- Date: Fri, 14 Jul 2023 19:25:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 19:06:24.685417
- Title: QontSum: On Contrasting Salient Content for Query-focused Summarization
- Title(参考訳): qontsum: クエリ中心の要約のためのサルエントコンテンツの対比について
- Authors: Sajad Sotudeh, Nazli Goharian
- Abstract要約: クエリ中心の要約(QFS)は、特定のクエリに対処する要約を生成する自然言語処理において難しいタスクである。
本稿では,GARにおけるQFSの役割について述べる。
コントラスト学習を利用したQFSの新しい手法であるQontSumを提案する。
- 参考スコア(独自算出の注目度): 22.738731393540633
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Query-focused summarization (QFS) is a challenging task in natural language
processing that generates summaries to address specific queries. The broader
field of Generative Information Retrieval (Gen-IR) aims to revolutionize
information extraction from vast document corpora through generative
approaches, encompassing Generative Document Retrieval (GDR) and Grounded
Answer Retrieval (GAR). This paper highlights the role of QFS in Grounded
Answer Generation (GAR), a key subdomain of Gen-IR that produces human-readable
answers in direct correspondence with queries, grounded in relevant documents.
In this study, we propose QontSum, a novel approach for QFS that leverages
contrastive learning to help the model attend to the most relevant regions of
the input document. We evaluate our approach on a couple of benchmark datasets
for QFS and demonstrate that it either outperforms existing state-of-the-art or
exhibits a comparable performance with considerably reduced computational cost
through enhancements in the fine-tuning stage, rather than relying on
large-scale pre-training experiments, which is the focus of current SOTA.
Moreover, we conducted a human study and identified improvements in the
relevance of generated summaries to the posed queries without compromising
fluency. We further conduct an error analysis study to understand our model's
limitations and propose avenues for future research.
- Abstract(参考訳): クエリ中心の要約(QFS)は、特定のクエリに対処する要約を生成する自然言語処理において難しいタスクである。
生成情報検索(Gen-IR)の幅広い分野は、生成文書検索(Generative Document Retrieval, GDR)とグラウンドドアンサー検索(GAR)を含む、膨大な文書コーパスからの情報抽出に革命をもたらすことを目的としている。
本稿では,gen-ir のキーサブドメインである grounded answer generation (gar) におけるqfs の役割について述べる。
本研究では,コントラスト学習を利用したQFSの新しい手法であるQontSumを提案する。
我々は、QFSのベンチマークデータセットを2つ評価し、現在のSOTAの焦点である大規模な事前学習実験に頼るのではなく、既存の最先端のデータセットよりも優れているか、微調整段階の強化を通じて計算コストを大幅に削減した同等の性能を示すことを示した。
さらに,人間による研究を行い,提案クエリに対する生成した要約の関連性の改善を,流布を損なうことなく確認した。
さらに,モデルの限界を理解するための誤り解析研究を行い,今後の研究への道筋を提案する。
関連論文リスト
- REAR: A Relevance-Aware Retrieval-Augmented Framework for Open-Domain
Question Answering [122.62012375722124]
既存の手法では,大規模言語モデル (LLM) は検索した文書の関連性を正確に評価することはできない。
Relevance-Aware Retrieval-augmented approach for open- domain question answering (QA)を提案する。
論文 参考訳(メタデータ) (2024-02-27T13:22:51Z) - Peek Across: Improving Multi-Document Modeling via Cross-Document
Question-Answering [49.85790367128085]
我々は,事前学習対象に答える新しいクロスドキュメント質問から,汎用的なマルチドキュメントモデルを事前学習する。
この新規なマルチドキュメントQA定式化は、クロステキスト情報関係をよりよく回復させるようモデルに指示する。
分類タスクや要約タスクに焦点を当てた従来のマルチドキュメントモデルとは異なり、事前学習対象の定式化により、短いテキスト生成と長いテキスト生成の両方を含むタスクを実行できる。
論文 参考訳(メタデータ) (2023-05-24T17:48:40Z) - A Lightweight Constrained Generation Alternative for Query-focused
Summarization [8.264410236351111]
クエリ中心の要約(QFS)は、あるクエリの必要な情報を満たすドキュメントの要約を提供することを目的としている。
我々は,最近開発された制約付き世代モデルニューロロジカルデコーディング(NLD)を,現在のQFS方式の代替として活用することを提案する。
本稿では,2つの公開QFSコレクションに対するこのアプローチの有効性を,複雑性を著しく低減した最先端モデルとほぼ同等に示す。
論文 参考訳(メタデータ) (2023-04-23T18:43:48Z) - Towards Complex Document Understanding By Discrete Reasoning [77.91722463958743]
VQA(Document Visual Question Answering)は、自然言語による質問に答えるために、視覚的に豊富なドキュメントを理解することを目的としている。
我々は3,067の文書ページと16,558の質問応答ペアからなる新しいドキュメントVQAデータセットTAT-DQAを紹介する。
我々は,テキスト,レイアウト,視覚画像など,多要素の情報を考慮に入れたMHSTという新しいモデルを開発し,異なるタイプの質問にインテリジェントに対処する。
論文 参考訳(メタデータ) (2022-07-25T01:43:19Z) - Retrieval-guided Counterfactual Generation for QA [5.434621727606356]
質問応答のための偽物作成の課題に焦点をあてる。
本研究では,逆実効評価とトレーニングデータを作成するRetrieve-Generate-Filter手法を開発した。
RGFデータは局所摂動に対するモデルの堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2021-10-14T17:56:37Z) - SAIS: Supervising and Augmenting Intermediate Steps for Document-Level
Relation Extraction [51.27558374091491]
本稿では,関係抽出のための中間ステップ(SAIS)を監督し,拡張することにより,関連コンテキストやエンティティタイプをキャプチャするモデルを明示的に教えることを提案する。
そこで本提案手法は,より効果的な管理を行うため,より優れた品質の関係を抽出するだけでなく,それに対応する証拠をより正確に抽出する。
論文 参考訳(メタデータ) (2021-09-24T17:37:35Z) - Improve Query Focused Abstractive Summarization by Incorporating Answer
Relevance [43.820971952979875]
本稿では,QFS-BARTモデルを提案する。QFS-BARTは,質問応答モデルによって与えられたソース文書の明示的な回答関連性を組み込んだモデルである。
我々のモデルは, 要約性能を大幅に向上させる, 事前学習された大規模モデルを利用することができる。
Debatepediaデータセットの実証結果は、提案したモデルが新しい最先端のパフォーマンスを達成することを示している。
論文 参考訳(メタデータ) (2021-05-27T06:58:42Z) - Abstractive Query Focused Summarization with Query-Free Resources [60.468323530248945]
本稿では,汎用的な要約リソースのみを利用して抽象的なqfsシステムを構築する問題を考える。
本稿では,要約とクエリのための新しい統一表現からなるMasked ROUGE回帰フレームワークであるMargeを提案する。
最小限の監視から学習したにもかかわらず,遠隔管理環境において最先端の結果が得られた。
論文 参考訳(メタデータ) (2020-12-29T14:39:35Z) - EQG-RACE: Examination-Type Question Generation [21.17100754955864]
本論文では, RACEから抽出したデータセットをもとに, 試験型質問生成手法 (EQG-RACE) を提案する。
EQG-RACEでは、離散的な回答情報を扱うための2つの主要な戦略と、長い文脈における推論が採用されています。
実験結果は、ベースラインよりも優れたEQG-RACEの最先端の性能を示しています。
論文 参考訳(メタデータ) (2020-12-11T03:52:17Z) - Template-Based Question Generation from Retrieved Sentences for Improved
Unsupervised Question Answering [98.48363619128108]
擬似学習データを用いてQAモデルを訓練するための教師なしアプローチを提案する。
関連した検索文に簡単なテンプレートを適用してQA学習のための質問を生成すると、元の文脈文よりも、下流QAのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2020-04-24T17:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。