論文の概要: The University of Texas at Dallas HLTRI's Participation in EPIC-QA:
Searching for Entailed Questions Revealing Novel Answer Nuggets
- arxiv url: http://arxiv.org/abs/2112.13946v1
- Date: Tue, 28 Dec 2021 00:14:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-31 06:48:20.312816
- Title: The University of Texas at Dallas HLTRI's Participation in EPIC-QA:
Searching for Entailed Questions Revealing Novel Answer Nuggets
- Title(参考訳): テキサス大学Dallas HLTRIのEPIC-QAへの参加:新しい回答ナゲットを探求する
- Authors: Maxwell Weinzierl, Sanda M. Harabagiu
- Abstract要約: 本稿では,EPIC-QAの両課題への参加について述べる:(1)エキスパートQA,(2)消費者QA。
提案手法では,BM25,BERT,T5を組み合わせた多相ニューラル情報検索システムを用いて,回答候補文から自動生成される質問と質問の関連性を検討する。
SER4EQUNOVA (NOVel nuggets of Answers) を提示するSEaRching for Entailed QUestions (SEaRching for Entailed QUestions) と呼ばれるシステムにより,EPIC-QAタスクの両タスクにおいて有望な結果が得られた。
- 参考スコア(独自算出の注目度): 1.0957528713294875
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Epidemic Question Answering (EPIC-QA) track at the Text Analysis
Conference (TAC) is an evaluation of methodologies for answering ad-hoc
questions about the COVID-19 disease. This paper describes our participation in
both tasks of EPIC-QA, targeting: (1) Expert QA and (2) Consumer QA. Our
methods used a multi-phase neural Information Retrieval (IR) system based on
combining BM25, BERT, and T5 as well as the idea of considering entailment
relations between the original question and questions automatically generated
from answer candidate sentences. Moreover, because entailment relations were
also considered between all generated questions, we were able to re-rank the
answer sentences based on the number of novel answer nuggets they contained, as
indicated by the processing of a question entailment graph. Our system, called
SEaRching for Entailed QUestions revealing NOVel nuggets of Answers
(SER4EQUNOVA), produced promising results in both EPIC-QA tasks, excelling in
the Expert QA task.
- Abstract(参考訳): text analysis conference(tac)のcovid-19 question answering(epic-qa)トラックは、新型コロナウイルスに関するアドホックな質問に答える方法論の評価である。
本稿では,EPIC-QAの両課題への参加について述べる:(1)エキスパートQA,(2)消費者QA。
提案手法では,BM25,BERT,T5を組み合わせた多相ニューラル情報検索システムを用いて,回答候補文から自動生成される質問と質問の関連性を検討する。
また,全ての質問に係わる係り受け関係も考慮されていたため,質問係り受けグラフの処理によって示されるような,含んでいる新規な回答ナゲット数に基づいて回答文を並べ替えることができた。
SER4EQUNOVA (NOVel nuggets of Answers) を提示するSEaRching for Entailed QUestions (SEaRching for Entailed QUestions) と呼ばれるシステムにより,EPIC-QAタスクの両タスクにおいて有望な結果が得られた。
関連論文リスト
- On the Robustness of Question Rewriting Systems to Questions of Varying
Hardness [43.63930447922717]
我々は、難易度や難易度に異なる質問に対するQRシステムの堅牢性に興味を持っている。
まず,質問と書き直しの相違を計測することにより,質問を様々な難易度の部分集合に自動的に分類する手法を提案する。
QRシステムのロバスト性を高めるために,ある難易度の質問のサブセットに独立してQRモデルをトレーニングする新しいQR学習フレームワークを提案し,これらのQRモデルを推論のジョイントモデルとして組み合わせた。
論文 参考訳(メタデータ) (2023-11-12T11:09:30Z) - SQUARE: Automatic Question Answering Evaluation using Multiple Positive
and Negative References [73.67707138779245]
SQuArE (Sentence-level QUestion AnsweRing Evaluation) という新しい評価指標を提案する。
文レベルの抽出(回答選択)と生成(GenQA)の両方のQAシステムでSQuArEを評価する。
論文 参考訳(メタデータ) (2023-09-21T16:51:30Z) - Answering Ambiguous Questions with a Database of Questions, Answers, and
Revisions [95.92276099234344]
ウィキペディアから生成される曖昧な質問のデータベースを利用して、あいまいな質問に答えるための新しい最先端技術を提案する。
提案手法は,リコール対策で15%,予測出力から不明瞭な質問を評価する尺度で10%向上する。
論文 参考訳(メタデータ) (2023-08-16T20:23:16Z) - Answering Unanswered Questions through Semantic Reformulations in Spoken
QA [20.216161323866867]
Spoken Question Answering (QA) は音声アシスタントの重要な機能であり、通常は複数のQAシステムによって支援される。
我々は失敗したQA要求を分析し、語彙的ギャップ、命題型、複雑な構文構造、高い特異性など、主要な課題を特定する。
本稿では,3つの言語的操作(リペア,構文的再構成,一般化)による質問の書き直しと回答を容易にするセマンティック質問修正(SURF)モデルを提案する。
論文 参考訳(メタデータ) (2023-05-27T07:19:27Z) - Consecutive Question Generation via Dynamic Multitask Learning [17.264399861776187]
本稿では,論理的に関連する質問応答対の集合を生成する連続質問生成タスク(CQG)を提案する。
まず、CQGの4つのキー要素について検討し、1つのメインタスクが質問応答ペアを生成し、4つの補助タスクが他の要素を生成する新しい動的マルチタスクフレームワークを提案する。
我々は,我々の戦略が質問生成を大幅に改善し,複数の関連するNLPタスクに利益をもたらすことを証明した。
論文 参考訳(メタデータ) (2022-11-16T11:50:36Z) - PACIFIC: Towards Proactive Conversational Question Answering over
Tabular and Textual Data in Finance [96.06505049126345]
我々はPACIFICという新しいデータセットを提案する。既存のCQAデータセットと比較すると、PACIFICは(i)活動性、(ii)数値推論、(iii)表とテキストのハイブリッドコンテキストの3つの重要な特徴を示す。
質問生成とCQAを組み合わせたPCQA(Proactive Conversational Question Answering)に基づいて,新しいタスクを定義する。
UniPCQAはPCQAのすべてのサブタスク上でマルチタスク学習を行い、Seeq2Seqの上位$kのサンプルをクロスバリデーションすることで、マルチタスク学習におけるエラー伝搬問題を緩和するための単純なアンサンブル戦略を取り入れている。
論文 参考訳(メタデータ) (2022-10-17T08:06:56Z) - Generating Self-Contained and Summary-Centric Question Answer Pairs via
Differentiable Reward Imitation Learning [7.2745835227138045]
本稿では,質問応答対(QAペア)を自己完結型,要約型,長さ制約型,記事要約型で生成するモデルを提案する。
このデータセットは、回答として要約を生成するQAペア生成モデルを学ぶために使用される。
論文 参考訳(メタデータ) (2021-09-10T06:34:55Z) - A Dataset of Information-Seeking Questions and Answers Anchored in
Research Papers [66.11048565324468]
1,585の自然言語処理論文に関する5,049の質問のデータセットを提示する。
各質問は、対応する論文のタイトルと要約のみを読むNLP実践者によって書かれ、質問は全文に存在する情報を求めます。
他のQAタスクでうまく機能する既存のモデルは、これらの質問に答える上ではうまく機能せず、論文全体から回答する際には、少なくとも27 F1ポイントパフォーマンスが低下します。
論文 参考訳(メタデータ) (2021-05-07T00:12:34Z) - GooAQ: Open Question Answering with Diverse Answer Types [63.06454855313667]
さまざまな回答型を持つ大規模データセットであるGooAQを紹介する。
このデータセットには500万の質問と300万の回答が含まれている。
論文 参考訳(メタデータ) (2021-04-18T05:40:39Z) - A Wrong Answer or a Wrong Question? An Intricate Relationship between
Question Reformulation and Answer Selection in Conversational Question
Answering [15.355557454305776]
会話の文脈における質問書き直し(QR)は、この現象により多くの光を放つことができることを示す。
TREC CAsT と QuAC (CANARD) のデータセットを用いて解析を行った。
論文 参考訳(メタデータ) (2020-10-13T06:29:51Z) - Unsupervised Question Decomposition for Question Answering [102.56966847404287]
本論文では, ワンツーNアン教師付きシーケンスシーケンス(ONUS)のアルゴリズムを提案する。
当初,ドメイン外,マルチホップ開発セットのベースラインが強かったため,HotpotQAでは大きなQA改善が見られた。
論文 参考訳(メタデータ) (2020-02-22T19:40:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。