論文の概要: QontSum: On Contrasting Salient Content for Query-focused Summarization
- arxiv url: http://arxiv.org/abs/2307.07586v1
- Date: Fri, 14 Jul 2023 19:25:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 19:06:24.685417
- Title: QontSum: On Contrasting Salient Content for Query-focused Summarization
- Title(参考訳): qontsum: クエリ中心の要約のためのサルエントコンテンツの対比について
- Authors: Sajad Sotudeh, Nazli Goharian
- Abstract要約: クエリ中心の要約(QFS)は、特定のクエリに対処する要約を生成する自然言語処理において難しいタスクである。
本稿では,GARにおけるQFSの役割について述べる。
コントラスト学習を利用したQFSの新しい手法であるQontSumを提案する。
- 参考スコア(独自算出の注目度): 22.738731393540633
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Query-focused summarization (QFS) is a challenging task in natural language
processing that generates summaries to address specific queries. The broader
field of Generative Information Retrieval (Gen-IR) aims to revolutionize
information extraction from vast document corpora through generative
approaches, encompassing Generative Document Retrieval (GDR) and Grounded
Answer Retrieval (GAR). This paper highlights the role of QFS in Grounded
Answer Generation (GAR), a key subdomain of Gen-IR that produces human-readable
answers in direct correspondence with queries, grounded in relevant documents.
In this study, we propose QontSum, a novel approach for QFS that leverages
contrastive learning to help the model attend to the most relevant regions of
the input document. We evaluate our approach on a couple of benchmark datasets
for QFS and demonstrate that it either outperforms existing state-of-the-art or
exhibits a comparable performance with considerably reduced computational cost
through enhancements in the fine-tuning stage, rather than relying on
large-scale pre-training experiments, which is the focus of current SOTA.
Moreover, we conducted a human study and identified improvements in the
relevance of generated summaries to the posed queries without compromising
fluency. We further conduct an error analysis study to understand our model's
limitations and propose avenues for future research.
- Abstract(参考訳): クエリ中心の要約(QFS)は、特定のクエリに対処する要約を生成する自然言語処理において難しいタスクである。
生成情報検索(Gen-IR)の幅広い分野は、生成文書検索(Generative Document Retrieval, GDR)とグラウンドドアンサー検索(GAR)を含む、膨大な文書コーパスからの情報抽出に革命をもたらすことを目的としている。
本稿では,gen-ir のキーサブドメインである grounded answer generation (gar) におけるqfs の役割について述べる。
本研究では,コントラスト学習を利用したQFSの新しい手法であるQontSumを提案する。
我々は、QFSのベンチマークデータセットを2つ評価し、現在のSOTAの焦点である大規模な事前学習実験に頼るのではなく、既存の最先端のデータセットよりも優れているか、微調整段階の強化を通じて計算コストを大幅に削減した同等の性能を示すことを示した。
さらに,人間による研究を行い,提案クエリに対する生成した要約の関連性の改善を,流布を損なうことなく確認した。
さらに,モデルの限界を理解するための誤り解析研究を行い,今後の研究への道筋を提案する。
関連論文リスト
- Context Awareness Gate For Retrieval Augmented Generation [2.749898166276854]
Retrieval Augmented Generation (RAG) は、大規模言語モデル(LLM)の限界を軽減し、ドメイン固有の質問に答える手段として広く採用されている。
これまでの研究は主に、取得したデータチャンクの精度と品質を改善し、生成パイプライン全体のパフォーマンスを向上させることに重点を置いてきた。
オープンドメイン質問応答における無関係情報検索の効果について検討し,LLM出力の品質に対する顕著な有害な影響を明らかにする。
論文 参考訳(メタデータ) (2024-11-25T06:48:38Z) - Retriever-and-Memory: Towards Adaptive Note-Enhanced Retrieval-Augmented Generation [72.70046559930555]
本稿では,複雑なQAタスクに対する適応ノート拡張RAG(Adaptive Note-Enhanced RAG)と呼ばれる汎用RAGアプローチを提案する。
具体的には、Adaptive-Noteは、知識の成長に関する包括的な視点を導入し、ノート形式で新しい情報を反復的に収集する。
さらに,適切な知識探索を促進するために,適応的な音符ベースの停止探索戦略を用いて,「何を検索し,いつ停止するか」を判断する。
論文 参考訳(メタデータ) (2024-10-11T14:03:29Z) - KaPQA: Knowledge-Augmented Product Question-Answering [59.096607961704656]
我々はAdobe AcrobatとPhotoshop製品に焦点を当てた2つのQAデータセットを紹介した。
また、製品QAタスクにおけるモデルの性能を高めるために、新しい知識駆動型RAG-QAフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-22T22:14:56Z) - IDEAL: Leveraging Infinite and Dynamic Characterizations of Large Language Models for Query-focused Summarization [59.06663981902496]
クエリ中心の要約(QFS)は、特定の関心事に答え、より優れたユーザ制御とパーソナライゼーションを可能にする要約を作成することを目的としている。
本稿では,LLMを用いたQFSモデル,Longthy Document Summarization,およびクエリ-LLMアライメントの2つの重要な特徴について検討する。
これらのイノベーションは、QFS技術分野における幅広い応用とアクセシビリティの道を開いた。
論文 参考訳(メタデータ) (2024-07-15T07:14:56Z) - A Survey on Retrieval-Augmented Text Generation for Large Language Models [1.4579344926652844]
Retrieval-Augmented Generation (RAG)は、検索手法とディープラーニングの進歩を融合する。
本稿では,RAGパラダイムを検索前,検索後,検索後,生成の4つのカテゴリに分類する。
RAGの進化を概説し、重要な研究の分析を通して分野の進歩について論じている。
論文 参考訳(メタデータ) (2024-04-17T01:27:42Z) - SAIS: Supervising and Augmenting Intermediate Steps for Document-Level
Relation Extraction [51.27558374091491]
本稿では,関係抽出のための中間ステップ(SAIS)を監督し,拡張することにより,関連コンテキストやエンティティタイプをキャプチャするモデルを明示的に教えることを提案する。
そこで本提案手法は,より効果的な管理を行うため,より優れた品質の関係を抽出するだけでなく,それに対応する証拠をより正確に抽出する。
論文 参考訳(メタデータ) (2021-09-24T17:37:35Z) - Improve Query Focused Abstractive Summarization by Incorporating Answer
Relevance [43.820971952979875]
本稿では,QFS-BARTモデルを提案する。QFS-BARTは,質問応答モデルによって与えられたソース文書の明示的な回答関連性を組み込んだモデルである。
我々のモデルは, 要約性能を大幅に向上させる, 事前学習された大規模モデルを利用することができる。
Debatepediaデータセットの実証結果は、提案したモデルが新しい最先端のパフォーマンスを達成することを示している。
論文 参考訳(メタデータ) (2021-05-27T06:58:42Z) - Abstractive Query Focused Summarization with Query-Free Resources [60.468323530248945]
本稿では,汎用的な要約リソースのみを利用して抽象的なqfsシステムを構築する問題を考える。
本稿では,要約とクエリのための新しい統一表現からなるMasked ROUGE回帰フレームワークであるMargeを提案する。
最小限の監視から学習したにもかかわらず,遠隔管理環境において最先端の結果が得られた。
論文 参考訳(メタデータ) (2020-12-29T14:39:35Z) - EQG-RACE: Examination-Type Question Generation [21.17100754955864]
本論文では, RACEから抽出したデータセットをもとに, 試験型質問生成手法 (EQG-RACE) を提案する。
EQG-RACEでは、離散的な回答情報を扱うための2つの主要な戦略と、長い文脈における推論が採用されています。
実験結果は、ベースラインよりも優れたEQG-RACEの最先端の性能を示しています。
論文 参考訳(メタデータ) (2020-12-11T03:52:17Z) - Template-Based Question Generation from Retrieved Sentences for Improved
Unsupervised Question Answering [98.48363619128108]
擬似学習データを用いてQAモデルを訓練するための教師なしアプローチを提案する。
関連した検索文に簡単なテンプレートを適用してQA学習のための質問を生成すると、元の文脈文よりも、下流QAのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2020-04-24T17:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。