論文の概要: QASem Parsing: Text-to-text Modeling of QA-based Semantics
- arxiv url: http://arxiv.org/abs/2205.11413v1
- Date: Mon, 23 May 2022 15:56:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 23:05:42.761503
- Title: QASem Parsing: Text-to-text Modeling of QA-based Semantics
- Title(参考訳): QASemパーシング:QAに基づく意味論のテキスト間モデリング
- Authors: Ayal Klein, Eran Hirsch, Ron Eliav, Valentina Pyatkin, Avi Caciularu
and Ido Dagan
- Abstract要約: 本稿では,QA-SRL,QANom,QADiscourseの3つの意味的タスクについて考察する。
最初に統合されたQASem解析ツールをリリースし、下流アプリケーションに実用的です。
- 参考スコア(独自算出の注目度): 19.42681342441062
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Several recent works have suggested to represent semantic relations with
questions and answers, decomposing textual information into separate
interrogative natural language statements. In this paper, we consider three
QA-based semantic tasks - namely, QA-SRL, QANom and QADiscourse, each targeting
a certain type of predication - and propose to regard them as jointly providing
a comprehensive representation of textual information. To promote this goal, we
investigate how to best utilize the power of sequence-to-sequence (seq2seq)
pre-trained language models, within the unique setup of semi-structured
outputs, consisting of an unordered set of question-answer pairs. We examine
different input and output linearization strategies, and assess the effect of
multitask learning and of simple data augmentation techniques in the setting of
imbalanced training data. Consequently, we release the first unified QASem
parsing tool, practical for downstream applications who can benefit from an
explicit, QA-based account of information units in a text.
- Abstract(参考訳): いくつかの最近の研究は、質問や回答とのセマンティックな関係を表現し、テキスト情報を別の疑問的自然言語文に分解することを示唆している。
本稿では, qa-srl, qanom, qadiscourseの3つの意味的タスクについて考察し, テキスト情報の包括的表現を共同で提供することを提案する。
本研究の目的は,半構造化アウトプットのユニークな設定において,事前学習されたseq2seq(sequence-to-sequence)言語モデルのパワーを最大限活用する方法を検討することである。
異なる入力・出力線形化戦略を検討し、不均衡なトレーニングデータの設定におけるマルチタスク学習と単純なデータ拡張手法の効果を評価した。
そこで我々は,テキスト中の情報単位の明示的なQAベースの説明から恩恵を受けることができる下流アプリケーションのための,最初の統合QASem解析ツールをリリースする。
関連論文リスト
- SEMQA: Semi-Extractive Multi-Source Question Answering [94.04430035121136]
本稿では,複数ソースを半抽出的に要約することで,複数の質問に答える新しいQAタスクを提案する。
この種の最初のデータセットであるQuoteSumを作成し、自然および生成された質問に対する人間による半抽出的な回答を提示する。
論文 参考訳(メタデータ) (2023-11-08T18:46:32Z) - PIE-QG: Paraphrased Information Extraction for Unsupervised Question
Generation from Small Corpora [4.721845865189576]
PIE-QGは、オープン情報抽出(OpenIE)を使用して、パラフレーズ付き通路から合成トレーニング質問を生成する。
主語,述語,対象>の3つを各節から抽出し,主語(または対象)と述語で質問し,対象(または対象)を回答とする。
論文 参考訳(メタデータ) (2023-01-03T12:20:51Z) - Utilizing Background Knowledge for Robust Reasoning over Traffic
Situations [63.45021731775964]
我々は、インテリジェントトランスポーテーションの補完的な研究側面である交通理解に焦点を当てる。
本研究は,豊富なコモンセンス知識を前提として,テキストベースの手法とデータセットを対象とする。
交通状況に対するゼロショットQAには3つの知識駆動アプローチを採用しています。
論文 参考訳(メタデータ) (2022-12-04T09:17:24Z) - PACIFIC: Towards Proactive Conversational Question Answering over
Tabular and Textual Data in Finance [96.06505049126345]
我々はPACIFICという新しいデータセットを提案する。既存のCQAデータセットと比較すると、PACIFICは(i)活動性、(ii)数値推論、(iii)表とテキストのハイブリッドコンテキストの3つの重要な特徴を示す。
質問生成とCQAを組み合わせたPCQA(Proactive Conversational Question Answering)に基づいて,新しいタスクを定義する。
UniPCQAはPCQAのすべてのサブタスク上でマルチタスク学習を行い、Seeq2Seqの上位$kのサンプルをクロスバリデーションすることで、マルチタスク学習におけるエラー伝搬問題を緩和するための単純なアンサンブル戦略を取り入れている。
論文 参考訳(メタデータ) (2022-10-17T08:06:56Z) - Discourse Analysis via Questions and Answers: Parsing Dependency
Structures of Questions Under Discussion [57.43781399856913]
この研究は、談話分析にQUD(Language framework of Questions Under discussion)を採用する。
我々は、文間の関係を、徹底的なきめ細かい質問とは対照的に、自由形式の質問として特徴づける。
完全文書上の質問の依存関係構造を導出する第一種QUDを開発する。
論文 参考訳(メタデータ) (2022-10-12T03:53:12Z) - Self-supervised Contrastive Cross-Modality Representation Learning for
Spoken Question Answering [29.545937716796082]
音声質問応答 (SQA) は、音声文書と質問の両方をきめ細かな理解を必要とする。
本稿では,自己指導型学習段階とコントラッシブな表現学習段階を併用した音声質問応答のための新しい学習手法を提案する。
本モデルでは,3つのSQAベンチマークの最先端結果が得られた。
論文 参考訳(メタデータ) (2021-09-08T01:13:14Z) - Question Answering Infused Pre-training of General-Purpose
Contextualized Representations [70.62967781515127]
汎用的文脈表現学習のための質問応答(QA)に基づく事前学習目的を提案する。
我々は、より正確なクロスエンコーダモデルの予測と一致するように、個別にパスと質問をエンコードするバイエンコーダQAモデルをトレーニングすることで、この目標を達成する。
ゼロショット, 少数ショットのパラフレーズ検出において, RoBERTa-large と過去の最先端のどちらよりも大幅に改善した。
論文 参考訳(メタデータ) (2021-06-15T14:45:15Z) - Generating Diverse and Consistent QA pairs from Contexts with
Information-Maximizing Hierarchical Conditional VAEs [62.71505254770827]
非構造化テキストを文脈として与えられたQAペアを生成するための条件付き変分オートエンコーダ(HCVAE)を提案する。
我々のモデルは、トレーニングにわずかなデータしか使わず、両方のタスクの全てのベースラインに対して印象的なパフォーマンス向上が得られる。
論文 参考訳(メタデータ) (2020-05-28T08:26:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。