論文の概要: One Question Answering Model for Many Languages with Cross-lingual Dense
Passage Retrieval
- arxiv url: http://arxiv.org/abs/2107.11976v1
- Date: Mon, 26 Jul 2021 06:02:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-27 23:07:41.128096
- Title: One Question Answering Model for Many Languages with Cross-lingual Dense
Passage Retrieval
- Title(参考訳): 言語間距離パス検索を伴う多言語に対する一質問応答モデル
- Authors: Akari Asai, Xinyan Yu, Jungo Kasai, Hannaneh Hajishirzi
- Abstract要約: CORAはクロスランガルなオープン・レトリーバル・アンサー・ジェネレーション・モデルである。
言語固有の注釈付きデータや知識ソースが利用できない場合でも、多くの言語で質問に答えることができる。
- 参考スコア(独自算出の注目度): 39.061900747689094
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present CORA, a Cross-lingual Open-Retrieval Answer Generation model that
can answer questions across many languages even when language-specific
annotated data or knowledge sources are unavailable. We introduce a new dense
passage retrieval algorithm that is trained to retrieve documents across
languages for a question. Combined with a multilingual autoregressive
generation model, CORA answers directly in the target language without any
translation or in-language retrieval modules as used in prior work. We propose
an iterative training method that automatically extends annotated data
available only in high-resource languages to low-resource ones. Our results
show that CORA substantially outperforms the previous state of the art on
multilingual open question answering benchmarks across 26 languages, 9 of which
are unseen during training. Our analyses show the significance of cross-lingual
retrieval and generation in many languages, particularly under low-resource
settings.
- Abstract(参考訳): 言語固有のアノテートデータや知識ソースが利用できない場合でも,多数の言語にまたがる疑問に答えることのできる,言語横断型オープンレトリーバル回答生成モデルであるcoraを提案する。
そこで本研究では,質問に対して言語間で文書を検索するアルゴリズムを提案する。
多言語自己回帰生成モデルと組み合わせることで、coraは翻訳や言語内検索モジュールを必要とせず、対象言語で直接応答する。
本稿では,高リソース言語でのみ使用可能な注釈データを低リソース言語に自動拡張する反復学習手法を提案する。
以上の結果から,CORAは,26言語にまたがる多言語オープン質問応答ベンチマークにおいて,従来の技術よりも大幅に優れており,そのうち9言語はトレーニング中に見つからない。
本研究は,多くの言語,特に低リソース環境における言語間検索と生成の意義を示す。
関連論文リスト
- What are the limits of cross-lingual dense passage retrieval for low-resource languages? [23.88853455670863]
極低リソース言語に対するマルチ言語パスレトリバー(mDPR)の機能解析を行う。
mDPRは26言語にわたるマルチリンガルなオープンQAベンチマークで成功し、そのうち9つはトレーニング中に見つからなかった。
我々はmDPRが不十分な2つの非常に低リソース言語(AmharicとKhmer)に焦点を当てている。
論文 参考訳(メタデータ) (2024-08-21T18:51:46Z) - Multilingual Needle in a Haystack: Investigating Long-Context Behavior of Multilingual Large Language Models [22.859955360764275]
本稿では,MultiLingual Needle-in-a-Haystack(MLNeedle)テストを導入する。
我々はMLNeedleの4つの最先端の大規模言語モデルを評価する。
論文 参考訳(メタデータ) (2024-08-19T17:02:06Z) - Crosslingual Capabilities and Knowledge Barriers in Multilingual Large Language Models [62.91524967852552]
大規模言語モデル(LLM)は、多言語コーパスの事前訓練のため、一般的に多言語である。
しかし、これらのモデルは言語間で対応する概念を関連付けることができ、効果的にクロスランガルなのでしょうか?
本研究は,言語横断的課題に関する6つの技術 LLM の評価を行った。
論文 参考訳(メタデータ) (2024-06-23T15:15:17Z) - Soft Language Clustering for Multilingual Model Pre-training [57.18058739931463]
本稿では,インスタンスを条件付きで符号化するためのフレキシブルガイダンスとして,コンテキスト的にプロンプトを検索するXLM-Pを提案する。
我々のXLM-Pは、(1)言語間における言語不変および言語固有知識の軽量なモデリングを可能にし、(2)他の多言語事前学習手法との容易な統合を可能にする。
論文 参考訳(メタデータ) (2023-06-13T08:08:08Z) - ZusammenQA: Data Augmentation with Specialized Models for Cross-lingual
Open-retrieval Question Answering System [16.89747171947662]
本稿では,言語横断的オープン-検索質問応答(COQA)におけるMIA共有タスクを提案する。
この挑戦的なシナリオでは、入力された質問に対して、システムは多言語プールから証拠文書を収集し、その質問の言語で回答を生成する必要がある。
データ拡張(Data Augmentation)、パッセージ検索(Passage Retrieval)、Answer Generation(Answer Generation)の3つの主要コンポーネントに対して、異なるモデル変種を組み合わせたいくつかのアプローチを考案した。
論文 参考訳(メタデータ) (2022-05-30T10:31:08Z) - From Masked Language Modeling to Translation: Non-English Auxiliary
Tasks Improve Zero-shot Spoken Language Understanding [24.149299722716155]
非常に低リソースの方言を含む6言語ファミリーの13言語を対象に,言語間SlotとIntent Detectionの新しいベンチマークであるxSIDを紹介した。
本研究では,英語SLU学習データと原文,構文,翻訳による非英語補助課題を併用した共同学習手法を提案する。
その結果,マスキング言語モデルによる主タスクの学習はスロットに有効であり,機械翻訳は意図分類に最適であることがわかった。
論文 参考訳(メタデータ) (2021-05-15T23:51:11Z) - Pivot Through English: Reliably Answering Multilingual Questions without
Document Retrieval [4.4973334555746]
低リソース言語(LRL)における解答に対する既存の解答法は、英語に大きく遅れた。
文書検索を回避し、英語から低リソース言語への知識の確実に転送する、より現実的なタスクセットアップを利用可能なリソースに策定します。
このタスク設定内では、リランク付き英語学習セットに対する意味的類似性検索に類似した、Reranked Maximal Internal Product Search (RM-MIPS)を提案する。
論文 参考訳(メタデータ) (2020-12-28T04:38:45Z) - XOR QA: Cross-lingual Open-Retrieval Question Answering [75.20578121267411]
この作業は、言語横断的な設定に応答するオープン検索の質問を拡張します。
我々は,同じ回答を欠いた質問に基づいて,大規模なデータセットを構築した。
論文 参考訳(メタデータ) (2020-10-22T16:47:17Z) - X-FACTR: Multilingual Factual Knowledge Retrieval from Pretrained
Language Models [103.75890012041366]
言語モデル(LM)は、事実の知識を捉えるのに驚くほど成功した。
しかし、LMの実際の表現能力の研究は、ほぼ間違いなく英語で行われている。
我々は23の語型的多様言語に対するクローゼスタイルプローブのベンチマークを作成する。
論文 参考訳(メタデータ) (2020-10-13T05:29:56Z) - XCOPA: A Multilingual Dataset for Causal Commonsense Reasoning [68.57658225995966]
XCOPA (Cross-lingual Choice of Plausible Alternatives) は11言語における因果コモンセンス推論のための多言語データセットである。
提案手法は,翻訳に基づく転送と比較して,現在の手法の性能が低下していることを明らかにする。
論文 参考訳(メタデータ) (2020-05-01T12:22:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。