論文の概要: One For All & All For One: Bypassing Hyperparameter Tuning with Model
Averaging For Cross-Lingual Transfer
- arxiv url: http://arxiv.org/abs/2310.10532v1
- Date: Mon, 16 Oct 2023 15:50:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 13:10:05.565468
- Title: One For All & All For One: Bypassing Hyperparameter Tuning with Model
Averaging For Cross-Lingual Transfer
- Title(参考訳): オール&オールフォーワン:クロスリンガルトランスファーのためのモデル平均化によるハイパーパラメータチューニングのバイパス
- Authors: Fabian David Schmidt, Ivan Vuli\'c, Goran Glava\v{s}
- Abstract要約: 本稿では,ZS-XLTの教師なし評価プロトコルを提案する。
我々は、高レベルセマンティックタスク(NLI、抽出QA)と低レベルトークン分類タスク(NER)の両方について、幅広いZS-XLT実験を行う。
ソースコード検証に基づく従来のモデル選択は,高速にZS-XLTの性能を最適化する。
- 参考スコア(独自算出の注目度): 61.455775535559276
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Multilingual language models enable zero-shot cross-lingual transfer
(ZS-XLT): fine-tuned on sizable source-language task data, they perform the
task in target languages without labeled instances. The effectiveness of ZS-XLT
hinges on the linguistic proximity between languages and the amount of
pretraining data for a language. Because of this, model selection based on
source-language validation is unreliable: it picks model snapshots with
suboptimal target-language performance. As a remedy, some work optimizes ZS-XLT
by extensively tuning hyperparameters: the follow-up work then routinely
struggles to replicate the original results. Other work searches over narrower
hyperparameter grids, reporting substantially lower performance. In this work,
we therefore propose an unsupervised evaluation protocol for ZS-XLT that
decouples performance maximization from hyperparameter tuning. As a robust and
more transparent alternative to extensive hyperparameter tuning, we propose to
accumulatively average snapshots from different runs into a single model. We
run broad ZS-XLT experiments on both higher-level semantic tasks (NLI,
extractive QA) and a lower-level token classification task (NER) and find that
conventional model selection based on source-language validation quickly
plateaus to suboptimal ZS-XLT performance. On the other hand, our accumulative
run-by-run averaging of models trained with different hyperparameters boosts
ZS-XLT performance and closely correlates with "oracle" ZS-XLT, i.e., model
selection based on target-language validation performance.
- Abstract(参考訳): マルチランガル言語モデルはゼロショット・クロスランガル・トランスファー(ZS-XLT)を可能にし、ソース言語タスクデータに基づいて微調整され、ラベル付きインスタンスなしでターゲット言語でタスクを実行する。
ZS-XLTのヒンジは、言語間の言語間近接と、言語に対する事前学習データの量に影響を及ぼす。
このため、ソース言語検証に基づくモデル選択は信頼できない。
治療として、いくつかの作業は、ハイパーパラメータを広範囲に調整することでZS-XLTを最適化する。
他の作業では、より狭いハイパーパラメータグリッドを探索し、パフォーマンスを大幅に低下させる。
そこで本研究では,超パラメータチューニングから性能最大化を分離するZS-XLTの教師なし評価プロトコルを提案する。
広範なハイパーパラメータチューニングに代わる頑健で透明な代替手段として,異なるランから1つのモデルに蓄積平均スナップショットを提案する。
高レベルセマンティックタスク (NLI, 抽出QA) と低レベルトークン分類タスク (NER) の両方について広範囲にわたるZS-XLT実験を行い, 情報源言語による検証に基づく従来のモデル選択が, より高速にZS-XLTの性能を向上させることを発見した。
一方、異なるハイパーパラメータでトレーニングされたモデルのアキュマティブ・バイ・ラン平均化は、ZS-XLT性能を高め、ターゲット言語検証性能に基づいたモデル選択と密接に相関する。
関連論文リスト
- ML-SUPERB 2.0: Benchmarking Multilingual Speech Models Across Modeling Constraints, Languages, and Datasets [106.7760874400261]
本稿では、事前訓練されたSSLと教師付き音声モデルを評価するための新しいベンチマークであるML-SUPERB2.0を提案する。
ML-SUPERBのセットアップよりも性能が向上するが、性能は下流モデル設計に依存している。
また、言語とデータセットのパフォーマンスに大きな違いがあることから、よりターゲットを絞ったアプローチの必要性も示唆されている。
論文 参考訳(メタデータ) (2024-06-12T21:01:26Z) - On the Analysis of Cross-Lingual Prompt Tuning for Decoder-based
Multilingual Model [49.81429697921861]
多言語自己回帰モデルにおけるパラメータ効率細調整(PEFT)と言語間タスクの相互作用について検討する。
高速チューニングは、微調整よりも低リソース言語の性能向上に有効であることを示す。
論文 参考訳(メタデータ) (2023-11-14T00:43:33Z) - X-SNS: Cross-Lingual Transfer Prediction through Sub-Network Similarity [19.15213046428148]
クロスランガルトランスファー(XLT)は、微調整プロセスに含まれていない言語で評価された場合、タスク上での性能をある程度保持する多言語言語モデルである。
本稿では,XLTの文脈における言語間の互換性を予測するプロキシとして,2言語間のサブネットワーク類似性の利用を提案する。
論文 参考訳(メタデータ) (2023-10-26T05:39:49Z) - Free Lunch: Robust Cross-Lingual Transfer via Model Checkpoint Averaging [60.79382212029304]
超多言語言語モデルはゼロショット (ZS-XLT) と少数ショット (FS-XLT) の言語間転送において強い性能を示している。
本稿では,タスクの微調整中に異なるチェックポイント(モデルスナップショット)を平均化する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2023-05-26T11:24:32Z) - Not All Languages Are Created Equal in LLMs: Improving Multilingual
Capability by Cross-Lingual-Thought Prompting [123.16452714740106]
大規模言語モデル(LLM)は印象的な多言語機能を示すが、その性能は言語によって大きく異なる。
XLT (cross-lingual- Thought prompting) という,シンプルで効果的な方法を提案する。
XLTは汎用テンプレートプロンプトで、言語間および論理的推論スキルを刺激し、言語間のタスクパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2023-05-11T17:44:17Z) - Prompt-Tuning Can Be Much Better Than Fine-Tuning on Cross-lingual
Understanding With Multilingual Language Models [95.32691891392903]
本稿では,プロンプトチューニングを用いた様々なNLUタスクの言語間評価を行い,それを微調整と比較する。
その結果, アクシデントチューニングは, データセット間の微調整よりもはるかに優れた言語間移動を実現することがわかった。
論文 参考訳(メタデータ) (2022-10-22T05:48:02Z) - XeroAlign: Zero-Shot Cross-lingual Transformer Alignment [9.340611077939828]
XLM-Rなどのクロスリンガルプリトレーニングトランスのタスク固有アライメント法について紹介する。
XeroAlignは翻訳されたタスクデータを使用して、モデルが異なる言語の同様の文埋め込みを生成するよう促します。
XLM-RAのテキスト分類精度はラベル付きデータで訓練されたXLM-Rよりも優れており、言語間対数パラフレーズタスクにおける最先端のモデルと同等である。
論文 参考訳(メタデータ) (2021-05-06T07:10:00Z) - WARP: Word-level Adversarial ReProgramming [13.08689221166729]
多くのアプリケーションでは、多くのパラメータを複数のタスクで共有できるように、より小さなパラメータセットをチューニングすることが望ましい。
自動プロンプト生成に関する初期の研究を拡張した逆転プログラミングに基づく代替アプローチを提案する。
提案手法は,SST-2およびMNLIデータセット上で,類似のトレーニング可能なパラメータ数で他の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-01-01T00:41:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。