論文の概要: Summarizing Community-based Question-Answer Pairs
- arxiv url: http://arxiv.org/abs/2211.09892v1
- Date: Thu, 17 Nov 2022 21:09:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 14:00:00.478546
- Title: Summarizing Community-based Question-Answer Pairs
- Title(参考訳): コミュニティ型質問応答ペアの要約
- Authors: Ting-Yao Hsu, Yoshi Suhara, Xiaolan Wang
- Abstract要約: 本稿では,CQAペアから簡潔な要約を作成することを目的とした,新しいCQA要約タスクを提案する。
私たちのデータとコードは公開されています。
- 参考スコア(独自算出の注目度): 5.680726650578754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Community-based Question Answering (CQA), which allows users to acquire their
desired information, has increasingly become an essential component of online
services in various domains such as E-commerce, travel, and dining. However, an
overwhelming number of CQA pairs makes it difficult for users without
particular intent to find useful information spread over CQA pairs. To help
users quickly digest the key information, we propose the novel CQA
summarization task that aims to create a concise summary from CQA pairs. To
this end, we first design a multi-stage data annotation process and create a
benchmark dataset, CoQASUM, based on the Amazon QA corpus. We then compare a
collection of extractive and abstractive summarization methods and establish a
strong baseline approach DedupLED for the CQA summarization task. Our
experiment further confirms two key challenges, sentence-type transfer and
deduplication removal, towards the CQA summarization task. Our data and code
are publicly available.
- Abstract(参考訳): CQA(Community-based Question Answering)は,Eコマースや旅行,食事など,さまざまな分野におけるオンラインサービスの不可欠なコンポーネントになりつつある。
しかし、CQAペアの数が圧倒的に多いため、ユーザがCQAペアに散らばる有用な情報を見つけることは困難である。
そこで本研究では,CQAペアから簡潔な要約を作成することを目的とした,新しいCQA要約タスクを提案する。
この目的のために,我々はまず多段階データアノテーションプロセスを設計し,amazon qaコーパスに基づいたベンチマークデータセットcoqasumを作成する。
次に,抽出的および抽象的要約法の集まりを比較し,cqa要約タスクに対して分離された強いベースラインアプローチを確立する。
本実験ではさらに,cqa要約タスクに対する文型転送と重複除去の2つの課題を検証した。
私たちのデータとコードは公開されています。
関連論文リスト
- MFORT-QA: Multi-hop Few-shot Open Rich Table Question Answering [3.1651118728570635]
今日の急成長する業界では、専門家は大量の文書を要約し、毎日重要な情報を抽出するという課題に直面している。
この課題に対処するために、テーブル質問回答(QA)のアプローチを開発し、関連する情報を抽出した。
近年のLarge Language Models (LLMs) の進歩により,プロンプトを用いて表データから情報を取り出す新たな可能性が高まっている。
論文 参考訳(メタデータ) (2024-03-28T03:14:18Z) - Long-Tailed Question Answering in an Open World [46.67715607552547]
我々は、Long-Tailed QA (OLTQA) を、長い尾の分散データから学習するものとして定義する。
OLTQAモデルを提案し,頭,尾,目立たないタスク間の知識共有を促進する。
大規模なOLTQAデータセットでは、我々のモデルは一貫して最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2023-05-11T04:28:58Z) - PACIFIC: Towards Proactive Conversational Question Answering over
Tabular and Textual Data in Finance [96.06505049126345]
我々はPACIFICという新しいデータセットを提案する。既存のCQAデータセットと比較すると、PACIFICは(i)活動性、(ii)数値推論、(iii)表とテキストのハイブリッドコンテキストの3つの重要な特徴を示す。
質問生成とCQAを組み合わせたPCQA(Proactive Conversational Question Answering)に基づいて,新しいタスクを定義する。
UniPCQAはPCQAのすべてのサブタスク上でマルチタスク学習を行い、Seeq2Seqの上位$kのサンプルをクロスバリデーションすることで、マルチタスク学習におけるエラー伝搬問題を緩和するための単純なアンサンブル戦略を取り入れている。
論文 参考訳(メタデータ) (2022-10-17T08:06:56Z) - Community Question Answering Entity Linking via Leveraging Auxiliary
Data [7.834536363163232]
本稿では,CQAテキストから検出されたテキストエンティティ参照と,それに対応するエンティティを知識ベースでリンクするCQAエンティティリンク(CQAEL)を提案する。
従来のエンティティリンク方式は、主にニュースドキュメント内のエンティティのリンクに焦点を当てている。
本稿では,異なる種類の補助データから得られる知識を効果的に活用し,リンク性能を向上させるためのトランスフォーマーベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-24T09:25:18Z) - HeteroQA: Learning towards Question-and-Answering through Multiple
Information Sources via Heterogeneous Graph Modeling [50.39787601462344]
コミュニティ質問回答(Community Question Answering, CQA)は、Eコマースやオンラインユーザコミュニティなど、多くのシナリオで利用することができる、明確に定義されたタスクである。
CQAの手法のほとんどは、知識を抽出し、ユーザの質問に答えるために記事やウィキペディアしか含まない。
ユーザコミュニティに複数の情報ソース(MIS)を組み込んで回答を自動的に生成する問合せ対応の異種グラフ変換器を提案する。
論文 参考訳(メタデータ) (2021-12-27T10:16:43Z) - PerCQA: Persian Community Question Answering Dataset [2.503043323723241]
コミュニティ質問回答 (Community Question Answering, CQA) は、現実の質問に対する回答を提供するフォーラムである。
CQAの最初のペルシア語データセットであるPerCQAを提示する。
このデータセットには、最も有名なペルシアのフォーラムからクロールされた質問と回答が含まれている。
論文 参考訳(メタデータ) (2021-12-25T14:06:41Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z) - Generating Diverse and Consistent QA pairs from Contexts with
Information-Maximizing Hierarchical Conditional VAEs [62.71505254770827]
非構造化テキストを文脈として与えられたQAペアを生成するための条件付き変分オートエンコーダ(HCVAE)を提案する。
我々のモデルは、トレーニングにわずかなデータしか使わず、両方のタスクの全てのベースラインに対して印象的なパフォーマンス向上が得られる。
論文 参考訳(メタデータ) (2020-05-28T08:26:06Z) - Harvesting and Refining Question-Answer Pairs for Unsupervised QA [95.9105154311491]
教師なし質問回答(QA)を改善するための2つのアプローチを提案する。
まず、ウィキペディアから語彙的・構文的に異なる質問を抽出し、質問応答対のコーパスを自動的に構築する(RefQAと名づけられる)。
第2に、より適切な回答を抽出するためにQAモデルを活用し、RefQA上でデータを反復的に洗練する。
論文 参考訳(メタデータ) (2020-05-06T15:56:06Z) - Template-Based Question Generation from Retrieved Sentences for Improved
Unsupervised Question Answering [98.48363619128108]
擬似学習データを用いてQAモデルを訓練するための教師なしアプローチを提案する。
関連した検索文に簡単なテンプレートを適用してQA学習のための質問を生成すると、元の文脈文よりも、下流QAのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2020-04-24T17:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。