論文の概要: MIA 2022 Shared Task Submission: Leveraging Entity Representations,
Dense-Sparse Hybrids, and Fusion-in-Decoder for Cross-Lingual Question
Answering
- arxiv url: http://arxiv.org/abs/2207.01940v1
- Date: Tue, 5 Jul 2022 10:27:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-06 23:24:14.604208
- Title: MIA 2022 Shared Task Submission: Leveraging Entity Representations,
Dense-Sparse Hybrids, and Fusion-in-Decoder for Cross-Lingual Question
Answering
- Title(参考訳): MIA 2022 Shared Task Submission: Leveraging Entity Representations, Dense-Sparse Hybrids, Fusion-in-Decoder for cross-Lingual Question Answering
- Authors: Zhucheng Tu, Sarguna Janani Padmanabhan
- Abstract要約: 複数言語情報アクセス(MIA)2022のための2段階システムについて述べる。
第1段階は多言語通訳検索とハイブリッド密集型スパース検索戦略からなる。
第2段は、第1段によって返される上位通路から回答を出力する読者で構成される。
- 参考スコア(独自算出の注目度): 5.837881923712393
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We describe our two-stage system for the Multi-lingual Information Access
(MIA) 2022 Shared Task on Cross-Lingual Open-Retrieval Question Answering. The
first stage consists of multilingual passage retrieval with a hybrid dense and
sparse retrieval strategy. The second stage consists of a reader which outputs
the answer from the top passages returned by the first stage. We show the
efficacy of using entity representations, sparse retrieval signals to help
dense retrieval, and Fusion-in-Decoder. On the development set, we obtain 43.46
F1 on XOR-TyDi QA and 21.99 F1 on MKQA, for an average F1 score of 32.73. On
the test set, we obtain 40.93 F1 on XOR-TyDi QA and 22.29 F1 on MKQA, for an
average F1 score of 31.61. We improve over the official baseline by over 4 F1
points on both the development and test sets.
- Abstract(参考訳): 本稿では,多言語情報アクセス(mia)2022のための2段階システムについて述べる。
第1段階は多言語通訳検索とハイブリッド密集型スパース検索戦略からなる。
第2段は、第1段によって返される上位通路から回答を出力する読者で構成される。
本稿では,エンティティ表現と疎検索信号を用いた密検索と融合インデコーダの有効性を示す。
XOR-TyDi QAでは43.46 F1、MKQAでは21.99 F1、平均F1スコアは32.73となる。
テストセットでは、XOR-TyDi QAで40.93 F1、MKQAで22.29 F1、平均F1スコア31.61を得る。
開発とテストセットの両方において、公式のベースラインよりも4F1ポイント以上改善します。
関連論文リスト
- The Ninth NTIRE 2024 Efficient Super-Resolution Challenge Report [180.94772271910315]
本稿は,NTIRE 2024の課題を概観し,効率的な単一画像超解像(ESR)ソリューションに焦点をあてる。
主な目的は、ランタイム、パラメータ、FLOPなどの様々な側面を最適化するネットワークを開発することである。
このチャレンジには262人の登録参加者が参加し、34チームが有効な応募を行った。
論文 参考訳(メタデータ) (2024-04-16T07:26:20Z) - Improving Query-Focused Meeting Summarization with Query-Relevant
Knowledge [71.14873115781366]
本稿では,その課題に対処するため,知識認識要約器(KAS)と呼ばれる知識強化2段階のフレームワークを提案する。
最初の段階では、クエリ関連セグメント抽出を改善するために知識認識スコアを導入します。
第2段階では,クエリ関連知識を要約生成に取り入れる。
論文 参考訳(メタデータ) (2023-09-05T10:26:02Z) - MIA 2022 Shared Task: Evaluating Cross-lingual Open-Retrieval Question
Answering for 16 Diverse Languages [54.002969723086075]
16言語に類型的に多様である言語における言語横断的オープン-検索型問合せシステムの評価を行った。
反復的にマイニングされた多様な負の例を利用する最良のシステムは32.2 F1となり、ベースラインを4.5ポイント上回る。
第2のベストシステムは文書検索にエンティティを意識した文脈表現を使用し、タミル(20.8 F1)の大幅な改善を実現している。
論文 参考訳(メタデータ) (2022-07-02T06:54:10Z) - Decomposing Complex Questions Makes Multi-Hop QA Easier and More
Interpretable [25.676852169835833]
マルチホップQAでは、機械が複数の手がかりと推論を見つけることで複雑な質問に答える必要がある。
本稿では,複雑な質問分解に基づく3段階のフレームワークであるRelation Extractor-Reader and Comparator(RERC)を提案する。
2WikiMultiHopQAデータセットでは、我々のRERCモデルは最も高度なパフォーマンスを達成し、勝利した合同F1スコアはリーダーボード上で53.58である。
論文 参考訳(メタデータ) (2021-10-26T08:10:35Z) - Question Answering Infused Pre-training of General-Purpose
Contextualized Representations [70.62967781515127]
汎用的文脈表現学習のための質問応答(QA)に基づく事前学習目的を提案する。
我々は、より正確なクロスエンコーダモデルの予測と一致するように、個別にパスと質問をエンコードするバイエンコーダQAモデルをトレーニングすることで、この目標を達成する。
ゼロショット, 少数ショットのパラフレーズ検出において, RoBERTa-large と過去の最先端のどちらよりも大幅に改善した。
論文 参考訳(メタデータ) (2021-06-15T14:45:15Z) - Multistage BiCross Encoder: Team GATE Entry for MLIA Multilingual
Semantic Search Task 2 [6.229830820553111]
MLIAタスク2多言語セマンティックサーチのためのチームGATEによって開発されたマルチステージBiCrossと呼ばれるサーチシステムを紹介します。
第1ラウンドの結果から,モノリンガルとバイリンガルの両方で,各ランキング指標の最先端性能が得られた。
論文 参考訳(メタデータ) (2021-01-08T13:59:26Z) - UCD-CS at W-NUT 2020 Shared Task-3: A Text to Text Approach for COVID-19
Event Extraction on Social Media [3.5585697639325113]
当社のアプローチを共有タスクで説明する。TwitterからCOVID-19イベントを抽出する。
このタスクの目的は、新型コロナウイルスに関連するツイートから、事前に定義されたスロット満載の質問に回答を抽出することである。
本稿では,T5テキスト・テキスト・モデルを用いて,イベント抽出タスクを質問応答タスクとして扱う。
論文 参考訳(メタデータ) (2020-09-21T17:39:00Z) - CO-Search: COVID-19 Information Retrieval with Semantic Search, Question
Answering, and Abstractive Summarization [53.67205506042232]
CO-Searchは、新型コロナウイルスの文献上の複雑なクエリを処理するように設計された、レトリバーランサーセマンティック検索エンジンである。
ドメイン固有の比較的限られたデータセットを考慮し、文書の段落と引用の2部グラフを生成する。
TREC-COVID情報検索課題のデータに基づいて,本システムの評価を行った。
論文 参考訳(メタデータ) (2020-06-17T01:32:48Z) - Dense Passage Retrieval for Open-Domain Question Answering [49.028342823838486]
本研究では,高密度表現のみを用いて検索を実践可能であることを示す。
我々の高密度レトリバーは、上位20経路の精度で9%-19%の絶対値で強力なルセンゼ-BM25システムより優れています。
論文 参考訳(メタデータ) (2020-04-10T04:53:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。