論文の概要: RA-MTR: A Retrieval Augmented Multi-Task Reader based Approach for Inspirational Quote Extraction from Long Documents
- arxiv url: http://arxiv.org/abs/2502.12124v1
- Date: Mon, 17 Feb 2025 18:46:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:12:09.833855
- Title: RA-MTR: A Retrieval Augmented Multi-Task Reader based Approach for Inspirational Quote Extraction from Long Documents
- Title(参考訳): RA-MTR:長期文書からの吸気内容抽出のための検索拡張マルチタスクリーダに基づくアプローチ
- Authors: Sayantan Adak, Animesh Mukherjee,
- Abstract要約: 本稿では,長いテキストから最も関連性の高い引用を抽出することを目的とした,文脈に基づく新しい引用抽出システムを提案する。
まず、ベクトルストアベースの検索器を用いて、この引用抽出を開領域質問応答問題として定式化する。
本稿では,BoW F1スコアの最大5.08%向上を実現し,最先端性能を向上する新しいマルチタスクフレームワークRA-MTRを提案する。
- 参考スコア(独自算出の注目度): 5.436122513215347
- License:
- Abstract: Inspirational quotes from famous individuals are often used to convey thoughts in news articles, essays, and everyday conversations. In this paper, we propose a novel context-based quote extraction system that aims to extract the most relevant quote from a long text. We formulate this quote extraction as an open domain question answering problem first by employing a vector-store based retriever and then applying a multi-task reader. We curate three context-based quote extraction datasets and introduce a novel multi-task framework RA-MTR that improves the state-of-the-art performance, achieving a maximum improvement of 5.08% in BoW F1-score.
- Abstract(参考訳): 有名な個人からの感情的な引用は、ニュース記事やエッセイ、日々の会話で思考を伝えるためにしばしば使われる。
本稿では,長いテキストから最も関連性の高い引用を抽出することを目的とした,文脈に基づく新しい引用抽出システムを提案する。
まず、ベクトルストアベースのレトリバーを使用し、次にマルチタスクリーダーを適用することで、この引用抽出をオープンドメイン質問応答問題として定式化する。
3つのコンテキストベースの引用抽出データセットをキュレートし、新しいマルチタスクフレームワークRA-MTRを導入し、最先端の性能を改善し、BoW F1スコアの最大5.08%向上を実現した。
関連論文リスト
- Emulating Retrieval Augmented Generation via Prompt Engineering for Enhanced Long Context Comprehension in LLMs [23.960451986662996]
本稿では,レトリーバル拡張生成(RAG)を特殊エンジニアリングとチェーンオブ思考推論によりエミュレートする手法を提案する。
我々は,BABILong から選択したタスクに対するアプローチを評価し,大量の散逸テキストを用いた標準 bAbI QA 問題をインターリーブする。
論文 参考訳(メタデータ) (2025-02-18T02:49:40Z) - Cross-lingual Contextualized Phrase Retrieval [63.80154430930898]
そこで本研究では,言語間関係の単語検索を多義的に行うタスクの定式化を提案する。
我々は、コントラスト学習を用いて、言語間コンテクスト対応句検索(CCPR)を訓練する。
フレーズ検索タスクでは、CCPRはベースラインをかなり上回り、少なくとも13ポイント高いトップ1の精度を達成する。
論文 参考訳(メタデータ) (2024-03-25T14:46:51Z) - Enriching Relation Extraction with OpenIE [70.52564277675056]
関係抽出(RE)は情報抽出(IE)のサブ分野である
本稿では,オープン情報抽出(OpenIE)の最近の取り組みがREの課題の改善にどのように役立つかを検討する。
本稿では,2つの注釈付きコーパスであるKnowledgeNetとFewRelを用いた実験により,拡張モデルの精度向上を実証した。
論文 参考訳(メタデータ) (2022-12-19T11:26:23Z) - Towards End-to-End Open Conversational Machine Reading [57.18251784418258]
オープン検索型会話機械読解(OR-CMR)タスクでは,機械は対話履歴とテキスト知識ベースに応答するマルチターン質問を行う必要がある。
OR-CMRを完全エンドツーエンドで統一されたテキスト・ツー・テキスト・タスクとしてモデル化し、ShARCおよびOR-ShARCデータセットを用いた実験により、提案したエンドツーエンド・フレームワークの有効性を示す。
論文 参考訳(メタデータ) (2022-10-13T15:50:44Z) - QuoteR: A Benchmark of Quote Recommendation for Writing [80.83859760380616]
QuoteRと呼ばれる大規模かつ完全にオープンな引用レコメンデーションデータセットを構築します。
我々はQuoteR上で既存の引用レコメンデーション手法を広範囲に評価する。
提案手法は,QuoteRの3つの部分すべてにおいて,従来の手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-02-26T14:01:44Z) - Multi-Document Keyphrase Extraction: A Literature Review and the First
Dataset [24.91326715164367]
文書の集合を記述するのに有用であるにもかかわらず、多文書キーフレーズ抽出は頻繁に研究されている。
ここでは、最初の文献レビューとタスクのための最初のデータセットであるMK-DUC-01を紹介し、新しいベンチマークとして機能する。
論文 参考訳(メタデータ) (2021-10-03T19:10:28Z) - MemSum: Extractive Summarization of Long Documents using Multi-step
Episodic Markov Decision Processes [6.585259903186036]
本稿では,任意の時間ステップで濃縮された強化学習に基づく抽出要約器であるMemSumについて紹介する。
私たちのイノベーションは、このタスクで人間が直感的に使用するような要約を行う際に、より広範な情報セットを検討することです。
論文 参考訳(メタデータ) (2021-07-19T14:41:31Z) - DeepStyle: User Style Embedding for Authorship Attribution of Short
Texts [57.503904346336384]
オーサシップアトリビューション(AA)は、多くのアプリケーションで重要で広く研究されている研究トピックです。
近年の研究では、深層学習がAAタスクの精度を大幅に向上させることが示されている。
本稿では,ユーザの健全な書き込みスタイルの表現を学習する新しい埋め込み型フレームワークであるDeepStyleを提案する。
論文 参考訳(メタデータ) (2021-03-14T15:56:37Z) - Context-Based Quotation Recommendation [60.93257124507105]
本稿では,新しい文脈対応引用レコメンデーションシステムを提案する。
これは、所定のソース文書から引用可能な段落とトークンの列挙リストを生成する。
音声テキストと関連するニュース記事の収集実験を行う。
論文 参考訳(メタデータ) (2020-05-17T17:49:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。