論文の概要: MIX : a Multi-task Learning Approach to Solve Open-Domain Question
Answering
- arxiv url: http://arxiv.org/abs/2012.09766v2
- Date: Fri, 29 Jan 2021 20:06:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-02 07:30:00.257227
- Title: MIX : a Multi-task Learning Approach to Solve Open-Domain Question
Answering
- Title(参考訳): MIX : オープンドメイン質問応答解決のためのマルチタスク学習アプローチ
- Authors: Sofian Chaybouti, Achraf Saghe, Aymen Shabou
- Abstract要約: オープンドメイン質問回答を解くためのマルチタスク深層学習手法MIXを紹介する。
まず,検索スペースを削減するためにBM25ベースのRetriever,RoBERTaベースのScorerとExtractorという3つのブロックからなる多段パイプラインを設計し,検索した段落をランク付けし,関連するテキストを抽出する。
本システムは,概念的に単純化しつつ,スプリットオープンベンチマークにおける最先端のパフォーマンスと同等である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce MIX : a multi-task deep learning approach to
solve Open-Domain Question Answering. First, we design our system as a
multi-stage pipeline made of 3 building blocks : a BM25-based Retriever, to
reduce the search space; RoBERTa based Scorer and Extractor, to rank retrieved
paragraphs and extract relevant spans of text respectively. Eventually, we
further improve computational efficiency of our system to deal with the
scalability challenge : thanks to multi-task learning, we parallelize the close
tasks solved by the Scorer and the Extractor. Our system is on par with
state-of-the-art performances on the squad-open benchmark while being simpler
conceptually.
- Abstract(参考訳): 本稿では,オープンドメイン質問応答を解決するためのマルチタスク深層学習手法MIXを紹介する。
まず,検索スペースを削減するためにBM25ベースのRetriever,RoBERTaベースのScorerとExtractorという3つのブロックからなる多段パイプラインを設計し,検索した段落をランク付けし,関連するテキストを抽出する。
最終的には,スケーラビリティ問題に対処するために,システムの計算効率をさらに向上する。マルチタスク学習により,ScorerとExtractorによって解決されたタスクを並列化する。
本システムは,概念的に単純化しつつ,スプリットオープンベンチマークにおける最先端のパフォーマンスと同等である。
関連論文リスト
- DQ-LoRe: Dual Queries with Low Rank Approximation Re-ranking for
In-Context Learning [66.85379279041128]
そこで本研究では,Dual Queries と Low-rank approximation Re- rank を利用して,文脈内学習のための例を自動選択するフレームワークを提案する。
DQ-LoRe は GPT-4 の自動選択において最先端の手法よりも優れ、92.5% から94.2% まで性能が向上した。
論文 参考訳(メタデータ) (2023-10-04T16:44:37Z) - End-to-end Knowledge Retrieval with Multi-modal Queries [50.01264794081951]
ReMuQは、テキストと画像のクエリからコンテンツを統合することで、大規模なコーパスから知識を取得するシステムを必要とする。
本稿では,入力テキストや画像を直接処理し,関連する知識をエンドツーエンドで検索する検索モデルReViz'を提案する。
ゼロショット設定下での2つのデータセットの検索において,優れた性能を示す。
論文 参考訳(メタデータ) (2023-06-01T08:04:12Z) - DAMO-NLP at SemEval-2023 Task 2: A Unified Retrieval-augmented System
for Multilingual Named Entity Recognition [94.90258603217008]
MultiCoNER RNum2共有タスクは、細粒度でノイズの多いシナリオにおいて、多言語の名前付きエンティティ認識(NER)に取り組むことを目的としている。
MultiCoNER RNum1の以前のトップシステムは、ナレッジベースまたはガゼッタを組み込んでいる。
細粒度多言語NERのための統一検索拡張システム(U-RaNER)を提案する。
論文 参考訳(メタデータ) (2023-05-05T16:59:26Z) - Multi-task Representation Learning for Pure Exploration in Linear
Bandits [34.67303292713379]
線形包帯(RepBAI-LB)におけるベストアーム識別のためのマルチタスク表現学習と文脈線形包帯(RepBPI-CLB)におけるベストポリシー識別について検討する。
これら2つの問題において、全てのタスクが共通の低次元線形表現を共有しており、我々のゴールは、この機能を活用して全てのタスクの最高のアーム(政治)識別プロセスを加速することである。
タスク間の共通表現を学習することで、我々のサンプルの複雑さはタスクを独立して解決するネイティブアプローチよりもはるかに優れていることを示す。
論文 参考訳(メタデータ) (2023-02-09T05:14:48Z) - Rethinking Label Smoothing on Multi-hop Question Answering [87.68071401870283]
MHQA (Multi-Hop Question Answering) は質問応答において重要な分野である。
本研究では,マルチホップ推論の性能を制限する主要な要因を解析する。
学習プロセスに不確実性を組み込んだ新しいラベル平滑化手法F1 Smoothingを提案する。
論文 参考訳(メタデータ) (2022-12-19T14:48:08Z) - Decomposed Prompting: A Modular Approach for Solving Complex Tasks [55.42850359286304]
本稿では,より単純なサブタスクに分解することで,複雑なタスクを解くための分解プロンプトを提案する。
このモジュール構造は、各プロンプトを特定のサブタスクに最適化することを可能にする。
Decomposed Promptingの柔軟性とモジュラリティは、数発のプロンプトで先行作業より優れていることを示す。
論文 参考訳(メタデータ) (2022-10-05T17:28:20Z) - Cross-task Attention Mechanism for Dense Multi-task Learning [16.040894192229043]
我々は2次元セマンティックセグメンテーションと2つの幾何学的タスク、すなわち密度深度と表面正規度推定を共同で扱う。
相関誘導型注意と自己注意によってペアワイズなクロスタスク交換を利用する,新しいマルチタスク学習アーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-06-17T17:59:45Z) - Multi-Task Learning with Sequence-Conditioned Transporter Networks [67.57293592529517]
シーケンスコンディショニングと重み付きサンプリングのレンズによるマルチタスク学習の実現を目指している。
合成タスクを対象とした新しいベンチマークであるMultiRavensを提案する。
次に,視覚に基づくエンドツーエンドシステムアーキテクチャであるSequence-Conditioned Transporter Networksを提案する。
論文 参考訳(メタデータ) (2021-09-15T21:19:11Z) - IIE-NLP-Eyas at SemEval-2021 Task 4: Enhancing PLM for ReCAM with
Special Tokens, Re-Ranking, Siamese Encoders and Back Translation [8.971288666318719]
本稿では,SemEval-2021 Task 4: Reading of Abstract Meaningの3つのサブタスクについて紹介する。
バックボーンモデル(RoBERTa)に適応した多くの単純かつ効果的なアプローチをうまく設計する。
実験結果から,本手法はベースラインシステムと比較して高い性能を示した。
論文 参考訳(メタデータ) (2021-02-25T10:51:48Z) - Multi-Task Learning with Deep Neural Networks: A Survey [0.0]
マルチタスク学習(Multi-task learning、MTL)は、複数のタスクを共有モデルで同時に学習する機械学習のサブフィールドである。
深層ニューラルネットワークにおけるマルチタスク学習手法の概要を述べる。
論文 参考訳(メタデータ) (2020-09-10T19:31:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。