論文の概要: An Understanding-Oriented Robust Machine Reading Comprehension Model
- arxiv url: http://arxiv.org/abs/2207.00187v1
- Date: Fri, 1 Jul 2022 03:32:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-04 12:48:33.814358
- Title: An Understanding-Oriented Robust Machine Reading Comprehension Model
- Title(参考訳): 理解指向ロバストマシンリーディング理解モデル
- Authors: Feiliang Ren, Yongkang Liu, Bochao Li, Shilei Liu, Bingchao Wang,
Jiaqi Wang, Chunchao Liu, Qi Ma
- Abstract要約: 本稿では,3種類のロバスト性問題に対処する理解指向機械読解モデルを提案する。
具体的には、入力された質問の正確な意味を理解するために、まず自然言語推論モジュールを使用します。
第3に,一般化の問題に対処する多言語学習機構を提案する。
- 参考スコア(独自算出の注目度): 12.870425062204035
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Although existing machine reading comprehension models are making rapid
progress on many datasets, they are far from robust. In this paper, we propose
an understanding-oriented machine reading comprehension model to address three
kinds of robustness issues, which are over sensitivity, over stability and
generalization. Specifically, we first use a natural language inference module
to help the model understand the accurate semantic meanings of input questions
so as to address the issues of over sensitivity and over stability. Then in the
machine reading comprehension module, we propose a memory-guided multi-head
attention method that can further well understand the semantic meanings of
input questions and passages. Third, we propose a multilanguage learning
mechanism to address the issue of generalization. Finally, these modules are
integrated with a multi-task learning based method. We evaluate our model on
three benchmark datasets that are designed to measure models robustness,
including DuReader (robust) and two SQuAD-related datasets. Extensive
experiments show that our model can well address the mentioned three kinds of
robustness issues. And it achieves much better results than the compared
state-of-the-art models on all these datasets under different evaluation
metrics, even under some extreme and unfair evaluations. The source code of our
work is available at: https://github.com/neukg/RobustMRC.
- Abstract(参考訳): 既存のマシン読み取り理解モデルは、多くのデータセットで急速に進歩しているが、それらは堅牢とは程遠い。
本稿では,高感度,過安定,一般化という3種類の頑健性問題に対処するための理解指向機械読解モデルを提案する。
具体的には、まず自然言語推論モジュールを用いて、モデルが入力質問の正確な意味を理解できるようにし、過度な感度と過度な安定性の問題に対処する。
そして,機械読解モジュールにおいて,入力質問や文節の意味をよりよく理解するメモリ誘導型マルチヘッドアテンション手法を提案する。
第3に,一般化の問題に対処する多言語学習機構を提案する。
最後に、これらのモジュールはマルチタスク学習ベースのメソッドに統合される。
我々は,dureader (robust) と2つのスクワッド関連データセットを含む,モデルのロバスト性を測定するために設計された3つのベンチマークデータセットでモデルを評価する。
大規模な実験により、我々のモデルは前述の3種類の堅牢性問題に対処できることが示された。
そして、いくつかの極端な不公平な評価でも、これらすべてのデータセットで比較された最先端モデルよりも優れた結果を得ることができます。
私たちの仕事のソースコードは、https://github.com/neukg/robustmrc.com/で入手できる。
関連論文リスト
- In-Context Language Learning: Architectures and Algorithms [73.93205821154605]
我々は、文脈言語学習(ICLL)において、私たちが用語する新しいモデル問題群(英語版)のレンズを通してICLを研究する。
我々は,通常のICLLタスクにおいて,多種多様なニューラルシーケンスモデルを評価する。
論文 参考訳(メタデータ) (2024-01-23T18:59:21Z) - Interpretability at Scale: Identifying Causal Mechanisms in Alpaca [62.65877150123775]
本研究では、Boundless DASを用いて、命令に従う間、大規模言語モデルにおける解釈可能な因果構造を効率的に探索する。
私たちの発見は、成長し、最も広くデプロイされている言語モデルの内部構造を忠実に理解するための第一歩です。
論文 参考訳(メタデータ) (2023-05-15T17:15:40Z) - Ensemble Transfer Learning for Multilingual Coreference Resolution [60.409789753164944]
非英語で作業する場合に頻繁に発生する問題は、注釈付きトレーニングデータの不足である。
我々は,様々なトランスファー学習技術を組み合わせた,シンプルだが効果的なアンサンブルベースのフレームワークを設計する。
また、ウィキペディアアンカーテキストを利用して、コア参照解決モデルをブートストラップする低コストのTL手法を提案する。
論文 参考訳(メタデータ) (2023-01-22T18:22:55Z) - Robustness Analysis of Video-Language Models Against Visual and Language
Perturbations [10.862722733649543]
この研究は、様々な現実世界の摂動に対するビデオ言語ロバスト性モデルに関する最初の広範な研究である。
我々は90の異なる視覚と35の異なるテキスト摂動を利用する2つの大規模ベンチマークデータセットMSRVTT-PとYouCook2-Pを提案する。
論文 参考訳(メタデータ) (2022-07-05T16:26:05Z) - ELEVATER: A Benchmark and Toolkit for Evaluating Language-Augmented
Visual Models [102.63817106363597]
ELEVATERは、事前訓練された言語拡張ビジュアルモデルの比較と評価を行う最初のベンチマークである。
20の画像分類データセットと35のオブジェクト検出データセットで構成され、それぞれが外部知識で拡張されている。
研究コミュニティ向けのツールキットと評価プラットフォームをリリースします。
論文 参考訳(メタデータ) (2022-04-19T10:23:42Z) - Deep Understanding based Multi-Document Machine Reading Comprehension [22.319892892352414]
本稿では,多文書機械読解のための深い理解に基づくモデルを提案する。
単語の意味を正確に理解するために設計された3つの深い理解モジュールがある。
我々は,TriviaQA WebとDuReaderという2つの大規模ベンチマークデータセットを用いて,我々のモデルを評価した。
論文 参考訳(メタデータ) (2022-02-25T12:56:02Z) - Leveraging Advantages of Interactive and Non-Interactive Models for
Vector-Based Cross-Lingual Information Retrieval [12.514666775853598]
対話型モデルと非対話型モデルの利点を活用する新しいフレームワークを提案する。
非対話型アーキテクチャ上でモデルを構築できる半対話型機構を導入するが、各文書を関連付けられた多言語クエリと共にエンコードする。
本手法は,計算効率を維持しながら検索精度を大幅に向上させる。
論文 参考訳(メタデータ) (2021-11-03T03:03:19Z) - Towards Trustworthy Deception Detection: Benchmarking Model Robustness
across Domains, Modalities, and Languages [10.131671217810581]
我々は、ドメイン外データ、モダリティ特化特徴、および英語以外の言語に対するモデルロバスト性を評価する。
我々は、追加の画像コンテンツを入力として、ELMo埋め込みはBERTまたはGLoVeと比較して大幅に少ないエラーをもたらすことを発見しました。
論文 参考訳(メタデータ) (2021-04-23T18:05:52Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z) - ORB: An Open Reading Benchmark for Comprehensive Evaluation of Machine
Reading Comprehension [53.037401638264235]
我々は,7種類の読解データセットの性能を報告する評価サーバORBを提案する。
評価サーバは、モデルのトレーニング方法に制限を課さないため、トレーニングパラダイムや表現学習の探索に適したテストベッドである。
論文 参考訳(メタデータ) (2019-12-29T07:27:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。