論文の概要: DiTTO: A Feature Representation Imitation Approach for Improving
Cross-Lingual Transfer
- arxiv url: http://arxiv.org/abs/2303.02357v1
- Date: Sat, 4 Mar 2023 08:42:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 20:16:29.924282
- Title: DiTTO: A Feature Representation Imitation Approach for Improving
Cross-Lingual Transfer
- Title(参考訳): DiTTO: 言語間移動改善のための特徴表現模倣手法
- Authors: Shanu Kumar, Abbaraju Soujanya, Sandipan Dandapat, Sunayana Sitaram,
Monojit Choudhury
- Abstract要約: ゼロショット転送を改善するためのドメインとしての言語。
我々のアプローチであるDiTTOは、標準のゼロショット微調整法よりも大幅に優れていることを示す。
我々のモデルは、数ショット設定であっても、標準的な微調整法よりも言語間移動がより良くできる。
- 参考スコア(独自算出の注目度): 15.062937537799005
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Zero-shot cross-lingual transfer is promising, however has been shown to be
sub-optimal, with inferior transfer performance across low-resource languages.
In this work, we envision languages as domains for improving zero-shot transfer
by jointly reducing the feature incongruity between the source and the target
language and increasing the generalization capabilities of pre-trained
multilingual transformers. We show that our approach, DiTTO, significantly
outperforms the standard zero-shot fine-tuning method on multiple datasets
across all languages using solely unlabeled instances in the target language.
Empirical results show that jointly reducing feature incongruity for multiple
target languages is vital for successful cross-lingual transfer. Moreover, our
model enables better cross-lingual transfer than standard fine-tuning methods,
even in the few-shot setting.
- Abstract(参考訳): ゼロショット言語間転送は有望であるが、低リソース言語間の転送性能が劣る副最適化であることが示されている。
本研究では,言語をゼロショット転送を改善するための領域として,ソースとターゲット言語間の特徴の不整合を共同で低減し,事前学習した多言語変換器の一般化能力を向上させる。
当社のアプローチであるdittoは,対象言語のラベルなしインスタンスのみを使用して,すべての言語にまたがる標準的なゼロショット微調整方法を大幅に上回っていることが分かりました。
実験結果から,複数言語における特徴不整合の低減が言語間移動の成功に不可欠であることが示唆された。
さらに,本モデルでは,小切手設定においても,標準的な微調整法よりも言語間伝達が良好である。
関連論文リスト
- Self-Augmentation Improves Zero-Shot Cross-Lingual Transfer [92.80671770992572]
言語間移動は多言語NLPにおける中心的なタスクである。
このタスクの以前の作業では、並列コーパス、バイリンガル辞書、その他の注釈付きアライメントデータを使用していた。
ゼロショットの言語間移動を改善するため, 単純で効果的なSALT法を提案する。
論文 参考訳(メタデータ) (2023-09-19T19:30:56Z) - Optimal Transport Posterior Alignment for Cross-lingual Semantic Parsing [68.47787275021567]
言語間のセマンティックパーシングは、高いソース言語(例えば英語)から少ないトレーニングデータを持つ低リソース言語へのパーシング能力を伝達する。
そこで本稿では,最適輸送を用いた係り受け変数間の言語間相違を明示的に最小化することで,言語間セマンティック解析のための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-09T04:52:31Z) - Model and Data Transfer for Cross-Lingual Sequence Labelling in
Zero-Resource Settings [10.871587311621974]
我々は、ゼロショット設定に適用された高容量多言語言語モデルが、データベースのクロスランガルトランスファーアプローチより一貫して優れていることを実験的に実証した。
この結果の詳細な分析は、言語使用における重要な違いによる可能性があることを示唆している。
また,高容量多言語言語モデルが利用できない場合,データに基づく多言語間移動アプローチが競争力のある選択肢であることも示唆した。
論文 参考訳(メタデータ) (2022-10-23T05:37:35Z) - A Simple and Effective Method to Improve Zero-Shot Cross-Lingual
Transfer Learning [6.329304732560936]
既存のゼロショットのクロスリンガル転送法は、並列コーパスやバイリンガル辞書に依存している。
意味喪失のない仮想多言語埋め込みに英語の埋め込みを移すための埋め込み・プッシュ・アテンション・プル・ロバスト・ターゲットを提案する。
論文 参考訳(メタデータ) (2022-10-18T15:36:53Z) - Zero-shot Cross-lingual Transfer is Under-specified Optimization [49.3779328255767]
ソース言語単言語モデルとソース+ターゲットバイリンガルモデルとの間の線形補間モデルは、等しく低いソース言語一般化誤差を持つことを示す。
また、ゼロショット解は対象言語誤り一般化曲面の非平坦領域にあり、高い分散を引き起こすことを示した。
論文 参考訳(メタデータ) (2022-07-12T16:49:28Z) - Improving Multilingual Translation by Representation and Gradient
Regularization [82.42760103045083]
表現レベルと勾配レベルの両方でNMTモデルを正規化するための共同手法を提案する。
提案手法は,オフターゲット翻訳の発生率の低減とゼロショット翻訳性能の向上に有効であることを示す。
論文 参考訳(メタデータ) (2021-09-10T10:52:21Z) - FILTER: An Enhanced Fusion Method for Cross-lingual Language
Understanding [85.29270319872597]
我々は,XLMファインタニングの入力として言語間データを利用する拡張融合法を提案する。
推論中は、ターゲット言語で入力されたテキストとソース言語の翻訳に基づいて予測を行う。
この問題に対処するため,対象言語における翻訳テキストのための自動生成ソフト擬似ラベルに基づくモデル学習のためのKL分割自己学習損失を提案する。
論文 参考訳(メタデータ) (2020-09-10T22:42:15Z) - From Zero to Hero: On the Limitations of Zero-Shot Cross-Lingual
Transfer with Multilingual Transformers [62.637055980148816]
言語モデリングの目的によって事前訓練された多言語トランスフォーマーは、NLPの事実上のデフォルト転送パラダイムとなっている。
膨大な多言語変換器による言語間変換は,リソースリーンシナリオや遠方言語では著しく効果が低いことを示す。
論文 参考訳(メタデータ) (2020-05-01T22:04:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。