論文の概要: A Closer Look at Few-Shot Crosslingual Transfer: Variance, Benchmarks
and Baselines
- arxiv url: http://arxiv.org/abs/2012.15682v1
- Date: Thu, 31 Dec 2020 16:03:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-17 22:38:44.982698
- Title: A Closer Look at Few-Shot Crosslingual Transfer: Variance, Benchmarks
and Baselines
- Title(参考訳): Few-Shotクロスリンガル転送の詳細:変数、ベンチマーク、ベースライン
- Authors: Mengjie Zhao, Yi Zhu, Ehsan Shareghi, Roi Reichart, Anna Korhonen,
Hinrich Sch\"utze
- Abstract要約: 本研究は,数発のクロスリンガル移動の焦点を絞った研究である。
予め訓練された多言語エンコーダは、まず高リソース言語の多くのアノテーションで微調整される。
少数ショット転送はゼロショット転送よりも大幅に改善される。
- 参考スコア(独自算出の注目度): 35.86713672304642
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a focused study of few-shot crosslingual transfer, a recently
proposed NLP scenario: a pretrained multilingual encoder is first finetuned on
many annotations in a high resource language (typically English), and then
finetuned on a few annotations (the ``few shots'') in a target language.
Few-shot transfer brings large improvements over zero-shot transfer. However,
we show that it inherently has large variance and it is necessary to report
results on multiple sets of few shots for stable results and to guarantee fair
comparison of different algorithms. To address this problem, we publish our
few-shot sets. In a study of why few-shot learning outperforms zero-shot
transfer, we show that large models heavily rely on lexical hints when
finetuned on a few shots and then overfit quickly. We evaluate different
methods that use few-shot annotations, but do not observe significant
improvements over the baseline. This calls for better ways of utilizing the
few-shot annotations.
- Abstract(参考訳): 事前訓練された多言語エンコーダは、まず高リソース言語(典型的には英語)の多くのアノテーションに微調整され、次にターゲット言語のいくつかのアノテーション(‘few shots’')に微調整される。
ゼロショット転送よりも大幅に改善されている。
しかし,本手法は本質的に大きなばらつきを有しており,安定な結果を得るためには複数組のショットの結果を報告し,異なるアルゴリズムの公平な比較を保証する必要がある。
この問題に対処するため、我々は少数セットを公開します。
少数ショット学習がゼロショット転送より優れている理由を調べたところ、数枚のショットを微調整すると、大きなモデルは語彙的ヒントに大きく依存することがわかった。
少数ショットアノテーションを使用する異なるメソッドを評価するが、ベースラインに対する大幅な改善は見つからない。
これにより、マイナショットアノテーションを利用するより良い方法が求められます。
関連論文リスト
- Narrowing the Gap between Zero- and Few-shot Machine Translation by
Matching Styles [53.92189950211852]
大規模言語モデルは、文脈内学習を用いたゼロショットと少数ショットの例を用いて、機械翻訳に一般化する能力を示した。
本稿では,このギャップに寄与する要因について検討し,対象コーパスの書字スタイルを一致させることで,このギャップをほとんど(約70%)閉鎖できることを示す。
論文 参考訳(メタデータ) (2023-11-04T03:18:45Z) - Optimal Transport Posterior Alignment for Cross-lingual Semantic Parsing [68.47787275021567]
言語間のセマンティックパーシングは、高いソース言語(例えば英語)から少ないトレーニングデータを持つ低リソース言語へのパーシング能力を伝達する。
そこで本稿では,最適輸送を用いた係り受け変数間の言語間相違を明示的に最小化することで,言語間セマンティック解析のための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-09T04:52:31Z) - BUFFET: Benchmarking Large Language Models for Few-shot Cross-lingual
Transfer [81.5984433881309]
本稿では,54言語にまたがる15のタスクをシーケンス・ツー・シーケンス・フォーマットで統一するBUFFETを紹介する。
BUFFETは、数発の言語間移動のための厳密で公平な評価フレームワークを確立するように設計されている。
コンテクスト内言語間移動における改善の余地は極めて大きいことが判明した。
論文 参考訳(メタデータ) (2023-05-24T08:06:33Z) - IGLUE: A Benchmark for Transfer Learning across Modalities, Tasks, and
Languages [87.5457337866383]
画像認識言語理解評価ベンチマークについて紹介する。
IGLUEは、視覚的質問応答、クロスモーダル検索、グラウンドド推論、20言語にわたるグラウンドドエンターテイメントタスクをまとめて提供する。
翻訳-テストの転送はゼロショットの転送よりも優れており、少数ショットの学習は多くのタスクに役立てることが難しい。
論文 参考訳(メタデータ) (2022-01-27T18:53:22Z) - Revisiting the Primacy of English in Zero-shot Cross-lingual Transfer [39.360667403003745]
ゼロショット・クロスランガル・トランスファーは実用的な解決策として浮上している。
人気のあるゼロショットベンチマークによって強化されたように、英語は転送のための主要なソース言語である。
ドイツ語やロシア語のような他の高リソース言語は、より効果的に転送されることがよくあります。
論文 参考訳(メタデータ) (2021-06-30T16:05:57Z) - Improving Zero-Shot Cross-Lingual Transfer Learning via Robust Training [45.48003947488825]
私達は2つの広く利用された強い訓練方法を研究します:反対の訓練およびランダム化された平滑化。
実験の結果,ロバストトレーニングにより,テキスト分類におけるゼロショット言語間転送が改善されることがわかった。
論文 参考訳(メタデータ) (2021-04-17T21:21:53Z) - Subword Segmentation and a Single Bridge Language Affect Zero-Shot
Neural Machine Translation [36.4055239280145]
WMTデータに基づいて学習した多言語EN$leftrightarrow$FR,CS,DE,FIシステムのゼロショット性能について検討した。
ゼロショット翻訳におけるソースのコピーに対するバイアスを観察し、サブワードセグメンテーションの選択がこのバイアスにどのように影響するかを考察する。
論文 参考訳(メタデータ) (2020-11-03T13:45:54Z) - Improving Massively Multilingual Neural Machine Translation and
Zero-Shot Translation [81.7786241489002]
ニューラルネットワーク翻訳(NMT)の多言語モデルは理論的には魅力的であるが、しばしばバイリンガルモデルに劣る。
我々は,多言語NMTが言語ペアをサポートするためにより強力なモデリング能力を必要とすることを論じる。
未知のトレーニング言語ペアの翻訳を強制するために,ランダムなオンライン翻訳を提案する。
論文 参考訳(メタデータ) (2020-04-24T17:21:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。