論文の概要: Towards Best Practices for Training Multilingual Dense Retrieval Models
- arxiv url: http://arxiv.org/abs/2204.02363v1
- Date: Tue, 5 Apr 2022 17:12:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-06 14:04:58.674534
- Title: Towards Best Practices for Training Multilingual Dense Retrieval Models
- Title(参考訳): 多言語Dense Retrieval Modelの学習実践に向けて
- Authors: Xinyu Zhang, Kelechi Ogueji, Xueguang Ma, Jimmy Lin
- Abstract要約: 我々は,このような設計を用いて,多種多様言語における単言語検索の課題に焦点をあてる。
本研究は多言語高密度検索モデルのトレーニングのための「ベストプラクティス」ガイドとして組織されている。
- 参考スコア(独自算出の注目度): 54.91016739123398
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dense retrieval models using a transformer-based bi-encoder design have
emerged as an active area of research. In this work, we focus on the task of
monolingual retrieval in a variety of typologically diverse languages using one
such design. Although recent work with multilingual transformers demonstrates
that they exhibit strong cross-lingual generalization capabilities, there
remain many open research questions, which we tackle here. Our study is
organized as a "best practices" guide for training multilingual dense retrieval
models, broken down into three main scenarios: where a multilingual transformer
is available, but relevance judgments are not available in the language of
interest; where both models and training data are available; and, where
training data are available not but models. In considering these scenarios, we
gain a better understanding of the role of multi-stage fine-tuning, the
strength of cross-lingual transfer under various conditions, the usefulness of
out-of-language data, and the advantages of multilingual vs. monolingual
transformers. Our recommendations offer a guide for practitioners building
search applications, particularly for low-resource languages, and while our
work leaves open a number of research questions, we provide a solid foundation
for future work.
- Abstract(参考訳): トランスベースのバイエンコーダ設計を用いた高密度検索モデルが活発に研究されている。
本研究では,このような設計を用いて,多種多様言語における単言語検索の課題に焦点をあてる。
近年の多言語変換器を用いた研究は,多言語間一般化能力の強いことを示したが,未解決の課題が数多く残っている。
本研究は,多言語高密度検索モデルを学習するための"ベストプラクティス"ガイドとして,多言語トランスフォーマーが利用できるが,関連判断が興味ある言語では利用できないこと,モデルとトレーニングデータの両方が利用できること,トレーニングデータがモデルだけでなく利用できること,の3つのシナリオに分類した。
これらのシナリオを考慮すると、多段微調整の役割、様々な条件下での言語間伝達の強さ、言語外データの有用性、多言語対単言語トランスフォーマーの利点をよりよく理解できる。
私たちの推奨事項は、検索アプリケーションを構築する実践者、特に低リソース言語のためのガイドを提供します。
関連論文リスト
- Analyzing the Evaluation of Cross-Lingual Knowledge Transfer in
Multilingual Language Models [12.662039551306632]
その結果,多言語モデルの高性能化は,実際の言語知識の伝達を必要としない要因が主な原因であることが示唆された。
具体的には、特に低リソース言語において、言語間で転送されたものは、主にデータアーチファクトとバイアスです。
論文 参考訳(メタデータ) (2024-02-03T09:41:52Z) - Multilingual Multimodality: A Taxonomical Survey of Datasets,
Techniques, Challenges and Opportunities [10.721189858694396]
マルチ言語とマルチモーダル(MultiX)ストリームの統合について検討する。
我々は、並列アノテーションで研究された言語、金または銀のデータを調べ、これらのモダリティと言語がモデリングにおいてどのように相互作用するかを理解する。
モデリングアプローチの長所と短所とともに、どのシナリオを確実に使用できるのかをよりよく理解するために、モデリングアプローチについて説明します。
論文 参考訳(メタデータ) (2022-10-30T21:46:01Z) - On the cross-lingual transferability of multilingual prototypical models
across NLU tasks [2.44288434255221]
教師付きディープラーニングベースのアプローチはタスク指向のダイアログに適用され、限られたドメインや言語アプリケーションに有効であることが証明されている。
実際には、これらのアプローチはドメイン駆動設計とアンダーリソース言語の欠点に悩まされている。
本稿では,原型ニューラルネットワークと多言語トランスフォーマーモデルを用いた相乗的少数ショット学習の言語間変換可能性について検討する。
論文 参考訳(メタデータ) (2022-07-19T09:55:04Z) - xGQA: Cross-Lingual Visual Question Answering [100.35229218735938]
xGQAは視覚的質問応答タスクのための新しい多言語評価ベンチマークである。
確立された英語GQAデータセットを7言語に拡張する。
本稿では,マルチモーダルトランスフォーマーモデルに適応するアダプタベースの新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-13T15:58:21Z) - Specializing Multilingual Language Models: An Empirical Study [50.7526245872855]
事前訓練された多言語モデルからの文脈化語表現は、自然言語タスクに対処するデファクトスタンダードとなっている。
これらのモデルではまれに、あるいは一度も見られない言語では、そのようなモデルを直接使用すると、最適な表現やデータの使用につながることが多い。
論文 参考訳(メタデータ) (2021-06-16T18:13:55Z) - Are Multilingual Models Effective in Code-Switching? [57.78477547424949]
多言語モデルの有効性を検討し,複合言語設定の能力と適応性について検討する。
この結果から,事前学習した多言語モデルでは,コードスイッチングにおける高品質な表現が必ずしも保証されないことが示唆された。
論文 参考訳(メタデータ) (2021-03-24T16:20:02Z) - Are pre-trained text representations useful for multilingual and
multi-dimensional language proficiency modeling? [6.294759639481189]
本稿では,多次元多言語習熟度分類における事前学習および微調整多言語組込みの役割に関する実験と観察について述べる。
提案手法は,多言語習熟度モデリングに有用であるが,どの特徴も言語習熟度の全次元において一貫した最高の性能を得られていないことを示唆する。
論文 参考訳(メタデータ) (2021-02-25T16:23:52Z) - Bridging Linguistic Typology and Multilingual Machine Translation with
Multi-View Language Representations [83.27475281544868]
特異ベクトル標準相関解析を用いて、各情報源からどのような情報が誘導されるかを調べる。
我々の表現は類型学を組み込み、言語関係と相関関係を強化する。
次に、多言語機械翻訳のための多視点言語ベクトル空間を利用して、競合する全体的な翻訳精度を実現する。
論文 参考訳(メタデータ) (2020-04-30T16:25:39Z) - XTREME: A Massively Multilingual Multi-task Benchmark for Evaluating
Cross-lingual Generalization [128.37244072182506]
言語間TRansfer Evaluation of Multilinguals XTREMEは、40言語および9タスクにわたる多言語表現の言語間一般化能力を評価するためのベンチマークである。
我々は、英語でテストされたモデルは、多くのタスクにおいて人間のパフォーマンスに達するが、言語間変換されたモデルの性能にはまだ大きなギャップがあることを示した。
論文 参考訳(メタデータ) (2020-03-24T19:09:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。