論文の概要: Unsupervised Question Answering via Answer Diversifying
- arxiv url: http://arxiv.org/abs/2208.10813v1
- Date: Tue, 23 Aug 2022 08:57:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-24 13:00:28.338810
- Title: Unsupervised Question Answering via Answer Diversifying
- Title(参考訳): 質問の多様化による教師なし回答
- Authors: Yuxiang Nie, Heyan Huang, Zewen Chi, Xian-Ling Mao
- Abstract要約: そこで我々は,DiverseQAという回答の多様化による新しい教師なし手法を提案する。
提案手法は,データ構築,データ拡張,デノナイジングフィルタの3つのモジュールから構成される。
大規模な実験により,提案手法は5つのベンチマークデータセットにおいて,従来の教師なしモデルよりも優れていた。
- 参考スコア(独自算出の注目度): 44.319944418802095
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised question answering is an attractive task due to its independence
on labeled data. Previous works usually make use of heuristic rules as well as
pre-trained models to construct data and train QA models. However, most of
these works regard named entity (NE) as the only answer type, which ignores the
high diversity of answers in the real world. To tackle this problem, we propose
a novel unsupervised method by diversifying answers, named DiverseQA.
Specifically, the proposed method is composed of three modules: data
construction, data augmentation and denoising filter. Firstly, the data
construction module extends the extracted named entity into a longer sentence
constituent as the new answer span to construct a QA dataset with diverse
answers. Secondly, the data augmentation module adopts an answer-type dependent
data augmentation process via adversarial training in the embedding level.
Thirdly, the denoising filter module is designed to alleviate the noise in the
constructed data. Extensive experiments show that the proposed method
outperforms previous unsupervised models on five benchmark datasets, including
SQuADv1.1, NewsQA, TriviaQA, BioASQ, and DuoRC. Besides, the proposed method
shows strong performance in the few-shot learning setting.
- Abstract(参考訳): ラベル付きデータの独立性のため、教師なしの質問応答は魅力的なタスクである。
これまでの研究では、データの構築やQAモデルのトレーニングにヒューリスティックなルールや事前訓練されたモデルが使われてきた。
しかし、これらの作品の多くは名前付きエンティティ(ne)を唯一の回答タイプとみなしており、現実世界の回答の多様性を無視している。
この問題に対処するために,DiverseQAという回答の多様化による新しい教師なし手法を提案する。
具体的には,提案手法はデータ構築,データ拡張,デノージングフィルタの3つのモジュールから構成される。
まず、データ構築モジュールは、抽出された名前付きエンティティを新しい回答スパンとして長い文構成要素に拡張し、多様な回答を持つqaデータセットを構築する。
次に、データ拡張モジュールは、組込みレベルでの敵意トレーニングを通じて、回答型依存型データ拡張プロセスを採用する。
第3に、デノイジングフィルタモジュールは、構築されたデータのノイズを軽減するように設計されている。
大規模な実験により、提案手法はSQuADv1.1、NewsQA、TriviaQA、BioASQ、DuoRCを含む5つのベンチマークデータセットにおいて、以前の教師なしモデルよりも優れていることが示された。
さらに,提案手法は,数ショットの学習環境において高い性能を示す。
関連論文リスト
- Look, Listen, and Answer: Overcoming Biases for Audio-Visual Question Answering [25.577314828249897]
本稿では,公開データセット(MUSIC-AVQA)のテストスプリット内での質問の表現と,分割された質問に対する分散シフトの導入という,2つのステップで構築された新しいデータセットMUSIC-AVQA-Rを提案する。
実験の結果、このアーキテクチャはMUSIC-AVQA-Rの最先端性能を実現し、特に9.32%の大幅な改善が得られた。
論文 参考訳(メタデータ) (2024-04-18T09:16:02Z) - UNK-VQA: A Dataset and a Probe into the Abstention Ability of Multi-modal Large Models [55.22048505787125]
本稿ではUNK-VQAと呼ばれる包括的データセットを提案する。
まず、画像または疑問について意図的に摂動することで、既存のデータを拡大する。
そこで我々は,新たなマルチモーダル大規模モデルのゼロショット性能と少数ショット性能を広範囲に評価した。
論文 参考訳(メタデータ) (2023-10-17T02:38:09Z) - An Empirical Comparison of LM-based Question and Answer Generation
Methods [79.31199020420827]
質問と回答の生成(QAG)は、コンテキストが与えられた質問と回答のペアのセットを生成することで構成される。
本稿では,シーケンス・ツー・シーケンス言語モデル(LM)を微調整する3つの異なるQAG手法を用いて,ベースラインを確立する。
実験により、学習時間と推論時間の両方で計算的に軽量なエンドツーエンドQAGモデルが一般に堅牢であり、他のより複雑なアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-26T14:59:53Z) - Chain-of-Skills: A Configurable Model for Open-domain Question Answering [79.8644260578301]
検索モデルは、現実世界の知識集約的なタスクに欠かせない要素である。
最近の研究はカスタマイズされたメソッドに焦点を合わせ、モデルの転送可能性とスケーラビリティを制限している。
本稿では,各モジュールがデータセット間で再利用可能なキースキルに対応するモジュールレトリバーを提案する。
論文 参考訳(メタデータ) (2023-05-04T20:19:39Z) - LIQUID: A Framework for List Question Answering Dataset Generation [17.86721740779611]
ラベルなしコーパスからリストQAデータセットを生成するためのフレームワークであるLIQUIDを提案する。
まず、ウィキペディアまたはPubMedからの節を要約に変換し、要約されたテキストから名前付きエンティティを候補回答として抽出する。
次に、抽出されたエンティティと元のパスを含む既成の質問生成器を用いて質問を生成する。
合成データを用いて,MultiSpanQAでは5.0点,Quorefでは1.9点,BioASQベンチマークでは2.8点の精度で,過去のベストリストQAモデルの性能を大幅に向上させた。
論文 参考訳(メタデータ) (2023-02-03T12:42:45Z) - Learning to Rank Question Answer Pairs with Bilateral Contrastive Data
Augmentation [39.22166065525888]
本稿では,バイラテラル生成(Bilateral Generation, BiG)という,新鮮で使いやすいデータ拡張戦略を提案する。
拡張データセットを用いて、質問応答ペアのランク付けを学習するための対照的な訓練目標を設計する。
TREC-QA,WikiQA,AntiQUEの3つのベンチマークデータセットによる実験結果から,本手法はランキングモデルの性能を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2021-06-21T13:29:43Z) - Text Modular Networks: Learning to Decompose Tasks in the Language of
Existing Models [61.480085460269514]
本稿では,既存のモデルで解けるより単純なモデルに分解することで,複雑なタスクを解くための解釈可能なシステムを構築するためのフレームワークを提案する。
我々はこのフレームワークを用いて、ニューラルネットワークのファクトイド単一スパンQAモデルとシンボリック電卓で答えられるサブクエストに分解することで、マルチホップ推論問題に答えられるシステムであるModularQAを構築する。
論文 参考訳(メタデータ) (2020-09-01T23:45:42Z) - ManyModalQA: Modality Disambiguation and QA over Diverse Inputs [73.93607719921945]
本稿では, エージェントが3つの異なるモダリティを考慮し, 質問に答えなければならない, マルチモーダルな質問応答課題, ManyModalQAを提案する。
われわれはウィキペディアをスクラップしてデータを収集し、クラウドソーシングを利用して質問と回答のペアを収集する。
論文 参考訳(メタデータ) (2020-01-22T14:39:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。