論文の概要: Lite Unified Modeling for Discriminative Reading Comprehension
- arxiv url: http://arxiv.org/abs/2203.14103v1
- Date: Sat, 26 Mar 2022 15:47:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-29 12:39:28.999326
- Title: Lite Unified Modeling for Discriminative Reading Comprehension
- Title(参考訳): 識別読解のためのlite統一モデル
- Authors: Yilin Zhao and Hai Zhao and Libin Shen and Yinggong Zhao
- Abstract要約: 本稿では,多様な差別的MRCタスクを同期的に扱うために,POS強化反復協調ネットワーク(POI-Net)を提案する。
私たちのライト統一設計は、エンコーダコンポーネントとデコーダコンポーネントの両方で、モデルに大きな改善をもたらします。
4つの識別的MCCベンチマークによる評価結果から,本モデルの有効性と適用性について一貫した評価結果を得た。
- 参考スコア(独自算出の注目度): 68.39862736200045
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a broad and major category in machine reading comprehension (MRC), the
generalized goal of discriminative MRC is answer prediction from the given
materials. However, the focuses of various discriminative MRC tasks may be
diverse enough: multi-choice MRC requires model to highlight and integrate all
potential critical evidence globally; while extractive MRC focuses on higher
local boundary preciseness for answer extraction. Among previous works, there
lacks a unified design with pertinence for the overall discriminative MRC
tasks. To fill in above gap, we propose a lightweight POS-Enhanced Iterative
Co-Attention Network (POI-Net) as the first attempt of unified modeling with
pertinence, to handle diverse discriminative MRC tasks synchronously. Nearly
without introducing more parameters, our lite unified design brings model
significant improvement with both encoder and decoder components. The
evaluation results on four discriminative MRC benchmarks consistently indicate
the general effectiveness and applicability of our model, and the code is
available at https://github.com/Yilin1111/poi-net.
- Abstract(参考訳): 機械読解(MRC)の広範かつ主要なカテゴリとして、識別的MRCの目標は、与えられた材料からの回答予測である。
しかし、様々な差別的 MRC タスクの焦点は多種多様であり、マルチチョイス MRC は世界中の潜在的な重要な証拠をハイライトし統合するモデルを必要とする。
以前の作品では、全体的な判別mrcタスクに関係のある統一設計が欠けている。
上記のギャップを埋めるために,多種多様な識別的MRCタスクを同期的に処理するために,PPOS強化反復協調ネットワーク(POI-Net)を提案する。
より多くのパラメータを導入することなく、私たちの合体した設計はエンコーダとデコーダの両方でモデルに大きな改善をもたらします。
4つの差別的MCCベンチマークによる評価結果は,我々のモデルの有効性と適用性を一貫して示しており,コードはhttps://github.com/Yilin1111/poi-net.comで公開されている。
関連論文リスト
- Efficient and Versatile Robust Fine-Tuning of Zero-shot Models [34.27380518351181]
本稿では、下流タスクにゼロショットモデルを微調整する新しい手法であるRobust Adapter(R-Adapter)を紹介する。
本手法は, 軽量モジュールを事前学習モデルに統合し, OODロバスト性を高め, 保存コストを大幅に削減するために, 新たな自己アンサンブル技術を用いる。
実験により,R-Adapterは,CLIPエンコーダのパラメータの13%をチューニングし,タスクのさまざまなセットで最先端のパフォーマンスを実現することを確認した。
論文 参考訳(メタデータ) (2024-08-11T11:37:43Z) - Centering the Value of Every Modality: Towards Efficient and Resilient Modality-agnostic Semantic Segmentation [7.797154022794006]
最近の試みでは、RGBのモダリティを中心とみなし、その他を補助的とみなし、2つの枝を持つ非対称なアーキテクチャを生み出している。
本稿では,コンパクトモデルから高性能モデルまで,様々なバックボーンと柔軟にペアリングできるMAGICという新しい手法を提案する。
提案手法は, モデルパラメータを60%削減しつつ, 最先端性能を実現する。
論文 参考訳(メタデータ) (2024-07-16T03:19:59Z) - Towards a Generalist and Blind RGB-X Tracker [91.36268768952755]
我々は、推論時間中に任意のモダリティ X を無視できる単一のモデルトラッカーを開発する。
トレーニングプロセスは非常にシンプルで,複数ラベルの分類損失をルーティング関数に統合する。
我々のジェネラリストとブラインドトラッカーは、確立されたモーダル固有モデルと比較して、競争性能を達成することができる。
論文 参考訳(メタデータ) (2024-05-28T03:00:58Z) - LoRA-Ensemble: Efficient Uncertainty Modelling for Self-attention Networks [52.46420522934253]
本稿では,自己注意ネットワークのためのパラメータ効率の高いディープアンサンブル手法であるLoRA-Ensembleを紹介する。
全メンバー間で重みを共有できる1つの事前学習型自己注意ネットワークを利用することで、注意投影のために、メンバー固有の低ランク行列を訓練する。
提案手法は明示的なアンサンブルよりも優れたキャリブレーションを示し,様々な予測タスクやデータセットに対して類似あるいは良好な精度を実現する。
論文 参考訳(メタデータ) (2024-05-23T11:10:32Z) - Dynamic Kernel Selection for Improved Generalization and Memory
Efficiency in Meta-learning [9.176056742068813]
圧縮CNNモデルを設計するためのタスク固有の動的カーネル選択戦略であるMetaDOCKを提案する。
提案手法は,各タスクごとにネットワークのすべてのカーネルが必要なわけではない,という仮説に基づいている。
提案手法を用いて得られた大容量CNNモデルの同一推定予算に対して,従来のCNNモデルよりも常に優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2022-06-03T17:09:26Z) - Robust Object Detection with Multi-input Multi-output Faster R-CNN [2.9823962001574182]
本研究は、汎用的なFaster R-CNNモデルを用いたオブジェクト検出のタスクに対して、MIMO(multi-input multi-output architecture)を適用した。
MIMOは強力な特徴表現の構築を可能にし、入力/出力ペアを2つだけ使う場合、非常に競争力のある精度を得る。
また、0.5%追加のモデルパラメータを追加し、標準のFaster R-CNNと比較して推論時間を15.9%向上させた。
論文 参考訳(メタデータ) (2021-11-25T12:59:34Z) - Coreference Reasoning in Machine Reading Comprehension [100.75624364257429]
機械読解におけるコレファレンス推論は,従来考えられていたよりも大きな課題である。
本稿では,コア参照推論の課題を反映した理解データセットの読解手法を提案する。
これにより、さまざまなMRCデータセットにまたがる最先端のモデルの推論能力が向上します。
論文 参考訳(メタデータ) (2020-12-31T12:18:41Z) - Crowd Counting via Hierarchical Scale Recalibration Network [61.09833400167511]
本稿では,群集カウントの課題に取り組むために,階層型大規模校正ネットワーク(HSRNet)を提案する。
HSRNetは、リッチなコンテキスト依存をモデル化し、複数のスケール関連情報を再検討する。
提案手法は,様々なノイズを選択的に無視し,適切な群集スケールに自動的に焦点を合わせることができる。
論文 参考訳(メタデータ) (2020-03-07T10:06:47Z) - AvgOut: A Simple Output-Probability Measure to Eliminate Dull Responses [97.50616524350123]
機能エンジニアリングなしで、どの発話やトークンが退屈であるかを動的に認識する対話モデルを構築します。
最初のモデルMinAvgOutは、各バッチの出力分布を通して、ダイバーシティスコアを直接最大化する。
第2のモデルであるラベルファインチューニング(LFT)は、多様性スコアによって連続的にスケールされたラベルをソースシーケンスにプリペイドし、多様性レベルを制御する。
3つ目のモデルであるRLは強化学習を採用し、多様性スコアを報奨信号として扱う。
論文 参考訳(メタデータ) (2020-01-15T18:32:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。