論文の概要: Determining Question-Answer Plausibility in Crowdsourced Datasets Using
Multi-Task Learning
- arxiv url: http://arxiv.org/abs/2011.04883v1
- Date: Tue, 10 Nov 2020 04:11:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 06:29:15.351698
- Title: Determining Question-Answer Plausibility in Crowdsourced Datasets Using
Multi-Task Learning
- Title(参考訳): マルチタスク学習を用いたクラウドソーシングデータセットの質問応答可能性の決定
- Authors: Rachel Gardner, Maya Varma, Clare Zhu, Ranjay Krishna
- Abstract要約: 本稿では,品質分析とデータクリーニングのための新しいタスクを提案する。
ソーシャルメディア利用者からのマシンやユーザ生成の質問とクラウドソースによる回答が与えられた場合、質問と回答が有効かどうかを判断する。
クリーンで使いやすい質問応答データセットを生成するためのモデルの有効性を評価する。
- 参考スコア(独自算出の注目度): 10.742152224470317
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Datasets extracted from social networks and online forums are often prone to
the pitfalls of natural language, namely the presence of unstructured and noisy
data. In this work, we seek to enable the collection of high-quality
question-answer datasets from social media by proposing a novel task for
automated quality analysis and data cleaning: question-answer (QA)
plausibility. Given a machine or user-generated question and a crowd-sourced
response from a social media user, we determine if the question and response
are valid; if so, we identify the answer within the free-form response. We
design BERT-based models to perform the QA plausibility task, and we evaluate
the ability of our models to generate a clean, usable question-answer dataset.
Our highest-performing approach consists of a single-task model which
determines the plausibility of the question, followed by a multi-task model
which evaluates the plausibility of the response as well as extracts answers
(Question Plausibility AUROC=0.75, Response Plausibility AUROC=0.78, Answer
Extraction F1=0.665).
- Abstract(参考訳): ソーシャルネットワークやオンラインフォーラムから抽出されたデータセットは、しばしば自然言語の落とし穴、すなわち、構造化されていない、ノイズの多いデータによって引き起こされる。
本研究では,質分析とデータクリーニングの新たなタスクを提案することで,ソーシャルメディアからの質の高い質問応答データセットの収集を可能にすることを目指す。
マシンやユーザ生成の質問、ソーシャルメディアユーザからのクラウドソースの回答が与えられた場合、質問と回答が有効であるかどうかを判断します。
BERTをベースとしたモデルをQA検証タスクとして設計し,クリーンで使いやすい質問応答データセットを生成するためのモデルの有効性を評価する。
提案手法は,質問の妥当性を決定する単一タスクモデルと,回答の妥当性を評価するマルチタスクモデルと,回答を抽出する(クエストプラズビリティAUROC=0.75,レスポンスプラズビリティAUROC=0.78,アンサー抽出F1=0.665)。
関連論文リスト
- RAG-ConfusionQA: A Benchmark for Evaluating LLMs on Confusing Questions [52.33835101586687]
会話AIエージェントはRetrieval Augmented Generation(RAG)を使用して、ユーザからの問い合わせに対して検証可能なドキュメント地上応答を提供する。
本稿では,与えられた文書コーパスから,文脈に乱れた多様な質問を効率的に生成する,新しい合成データ生成手法を提案する。
論文 参考訳(メタデータ) (2024-10-18T16:11:29Z) - Uncertainty-aware Language Modeling for Selective Question Answering [107.47864420630923]
本稿では,不確実性を考慮したLLMを生成するLLM変換手法を提案する。
我々のアプローチはモデルとデータに依存しず、計算効率が高く、外部モデルやシステムに依存しない。
論文 参考訳(メタデータ) (2023-11-26T22:47:54Z) - UNK-VQA: A Dataset and a Probe into the Abstention Ability of Multi-modal Large Models [55.22048505787125]
本稿ではUNK-VQAと呼ばれる包括的データセットを提案する。
まず、画像または疑問について意図的に摂動することで、既存のデータを拡大する。
そこで我々は,新たなマルチモーダル大規模モデルのゼロショット性能と少数ショット性能を広範囲に評価した。
論文 参考訳(メタデータ) (2023-10-17T02:38:09Z) - An Empirical Comparison of LM-based Question and Answer Generation
Methods [79.31199020420827]
質問と回答の生成(QAG)は、コンテキストが与えられた質問と回答のペアのセットを生成することで構成される。
本稿では,シーケンス・ツー・シーケンス言語モデル(LM)を微調整する3つの異なるQAG手法を用いて,ベースラインを確立する。
実験により、学習時間と推論時間の両方で計算的に軽量なエンドツーエンドQAGモデルが一般に堅牢であり、他のより複雑なアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-26T14:59:53Z) - Question Answering Survey: Directions, Challenges, Datasets, Evaluation
Matrices [0.0]
QA分野の研究の方向性は,質問の種類,回答の種類,根拠の源泉,モデリングアプローチに基づいて分析される。
これに続き、自動質問生成、類似性検出、言語に対する低リソース可用性など、この分野のオープンな課題が続きます。
論文 参考訳(メタデータ) (2021-12-07T08:53:40Z) - Generating Self-Contained and Summary-Centric Question Answer Pairs via
Differentiable Reward Imitation Learning [7.2745835227138045]
本稿では,質問応答対(QAペア)を自己完結型,要約型,長さ制約型,記事要約型で生成するモデルを提案する。
このデータセットは、回答として要約を生成するQAペア生成モデルを学ぶために使用される。
論文 参考訳(メタデータ) (2021-09-10T06:34:55Z) - A Wrong Answer or a Wrong Question? An Intricate Relationship between
Question Reformulation and Answer Selection in Conversational Question
Answering [15.355557454305776]
会話の文脈における質問書き直し(QR)は、この現象により多くの光を放つことができることを示す。
TREC CAsT と QuAC (CANARD) のデータセットを用いて解析を行った。
論文 参考訳(メタデータ) (2020-10-13T06:29:51Z) - Unsupervised Evaluation for Question Answering with Transformers [46.16837670041594]
本稿では, トランスフォーマーに基づくQAアーキテクチャにおける質問, 回答, コンテキストの隠蔽表現について検討する。
回答表現における一貫したパターンを観察し、予測された回答が正しいかどうかを自動的に評価することができることを示す。
私たちはモデルの解答が正解かどうかを、SQuADの91.37%、SubjQAの80.7%の精度で予測することができる。
論文 参考訳(メタデータ) (2020-10-07T07:03:30Z) - Selective Question Answering under Domain Shift [90.021577320085]
モデルがドメイン外の入力に対して過度に信頼されているため、モデルのソフトマックス確率のみに基づくアテンションポリシーは不適切である。
キャリブレータをトレーニングして、QAモデルがアースする入力を識別し、エラーを予測した場合に停止する。
提案手法は,80%の精度を維持しながら56%の質問に回答するが,それに対してモデルの確率を直接使用する場合,80%の精度で48%しか回答しない。
論文 参考訳(メタデータ) (2020-06-16T19:13:21Z) - Template-Based Question Generation from Retrieved Sentences for Improved
Unsupervised Question Answering [98.48363619128108]
擬似学習データを用いてQAモデルを訓練するための教師なしアプローチを提案する。
関連した検索文に簡単なテンプレートを適用してQA学習のための質問を生成すると、元の文脈文よりも、下流QAのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2020-04-24T17:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。