論文の概要: More Parameters? No Thanks!
- arxiv url: http://arxiv.org/abs/2107.09622v1
- Date: Tue, 20 Jul 2021 17:04:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-21 16:29:16.373621
- Title: More Parameters? No Thanks!
- Title(参考訳): パラメータは?
ありがたい!
- Authors: Zeeshan Khan, Kartheek Akella, Vinay P. Namboodiri, C V Jawahar
- Abstract要約: 多言語ニューラルマシン翻訳MNMTにおけるモデル容量と負の干渉の長期的問題について検討する。
我々はネットワークプルーニング手法を用いて、トレーニングされたMNMTモデルからパラメータの50-70%をプルーニングすると、BLEUスコアの0.29-1.98ドロップしか得られないことを観察する。
我々は,MNMTの冗長なパラメータを反復的に訓練し,多言語性を維持しながらバイリンガル表現を改善する新しい適応戦略を提案する。
- 参考スコア(独自算出の注目度): 43.68267274000395
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work studies the long-standing problems of model capacity and negative
interference in multilingual neural machine translation MNMT. We use network
pruning techniques and observe that pruning 50-70% of the parameters from a
trained MNMT model results only in a 0.29-1.98 drop in the BLEU score.
Suggesting that there exist large redundancies even in MNMT models. These
observations motivate us to use the redundant parameters and counter the
interference problem efficiently. We propose a novel adaptation strategy, where
we iteratively prune and retrain the redundant parameters of an MNMT to improve
bilingual representations while retaining the multilinguality. Negative
interference severely affects high resource languages, and our method
alleviates it without any additional adapter modules. Hence, we call it
parameter-free adaptation strategy, paving way for the efficient adaptation of
MNMT. We demonstrate the effectiveness of our method on a 9 language MNMT
trained on TED talks, and report an average improvement of +1.36 BLEU on high
resource pairs. Code will be released here.
- Abstract(参考訳): 本研究では,多言語ニューラルマシン翻訳mnmtにおけるモデル容量と負の干渉の長期的問題について検討する。
ネットワークプルーニング手法を用いて,訓練したmnmtモデルから50~70%のパラメータをプルーニングした結果,bleuスコアが0.29-1.98に低下することを確認した。
MNMTモデルにも大きな冗長性が存在することを示唆する。
これらの観察は、冗長なパラメータを使用し、干渉問題に効率的に対処する動機となる。
我々は,MNMTの冗長パラメータを反復的に訓練し,多言語性を維持しながらバイリンガル表現を改善する新しい適応戦略を提案する。
負の干渉は高い資源言語に大きく影響し、我々の手法は追加のアダプタモジュールを使わずにそれを緩和する。
したがって、パラメータフリー適応戦略と呼び、MNMTの効率よく適応する方法を舗装する。
TEDトークで訓練した9言語 MNMT における本手法の有効性を実証し,高資源対における +1.36 BLEU の平均的改善を報告する。
コードはここでリリースされる。
関連論文リスト
- Mitigating Data Imbalance and Representation Degeneration in
Multilingual Machine Translation [103.90963418039473]
Bi-ACLは、MNMTモデルの性能を向上させるために、ターゲット側モノリンガルデータとバイリンガル辞書のみを使用するフレームワークである。
Bi-ACLは、長い尾の言語でも、高リソースの言語でも、より効果的であることを示す。
論文 参考訳(メタデータ) (2023-05-22T07:31:08Z) - On the Pareto Front of Multilingual Neural Machine Translation [123.94355117635293]
我々は、ニューラルネットワーク翻訳(MNMT)におけるサンプリング比によって、与えられた方向の性能がどう変化するかを検討する。
我々は,MNMTにおけるユニークなパフォーマンストレードオフフロントを予測するために,ダブルパワー法を提案する。
本実験では, トレーニング予算の1/5から1/2に過ぎず, 温度探索法や勾配操作法よりも優れた性能が得られた。
論文 参考訳(メタデータ) (2023-04-06T16:49:19Z) - Robust Domain Adaptation for Pre-trained Multilingual Neural Machine
Translation Models [0.0]
本稿では,組込み凍結と対向損失を組み合わせた汎用mNMTの微調整手法を提案する。
実験では、全ての言語対に対する汎用ドメインの初期性能を最小限に抑えながら、特殊なデータの性能を向上させることを示した。
論文 参考訳(メタデータ) (2022-10-26T18:47:45Z) - High-resource Language-specific Training for Multilingual Neural Machine
Translation [109.31892935605192]
負の干渉を軽減するために,HLT-MT(High-Resource Language-specific Training)を用いた多言語翻訳モデルを提案する。
具体的には、まずマルチ言語モデルを高リソースペアでトレーニングし、デコーダの上部にある言語固有のモジュールを選択する。
HLT-MTは、高リソース言語から低リソース言語への知識伝達のために、利用可能なすべてのコーパスでさらに訓練されている。
論文 参考訳(メタデータ) (2022-07-11T14:33:13Z) - Parameter-Efficient Neural Reranking for Cross-Lingual and Multilingual
Retrieval [66.69799641522133]
最先端のニューラルランカーは、お腹が空いていることで悪名高い。
現在のアプローチでは、英語データに基づいて訓練されたローダを、多言語エンコーダを用いて他の言語や言語間設定に転送するのが一般的である。
本研究では,Sparse Fine-Tuning Masks (SFTMs) とAdapters (Adapters) の2つのパラメータ効率のアプローチにより,より軽量で効果的なゼロショット転送が可能となることを示す。
論文 参考訳(メタデータ) (2022-04-05T15:44:27Z) - Demystify Optimization Challenges in Multilingual Transformers [21.245418118851884]
ロスランドスケープとパラメータの可塑性の観点から最適化課題を考察する。
不均衡なトレーニングデータは、高いリソース言語と低いリソース言語の間でタスクの干渉を引き起こす。
Curvature Aware Task Scaling (CATS) を提案し、特にリソースの少ない場合の最適化と一般化の両方を改善します。
論文 参考訳(メタデータ) (2021-04-15T17:51:03Z) - Multi-task Learning for Multilingual Neural Machine Translation [32.81785430242313]
本稿では,bitextデータ上での翻訳タスクと,モノリンガルデータ上での2つの認知タスクを併用してモデルを学習するマルチタスク学習フレームワークを提案する。
提案手法は,高リソース言語と低リソース言語の両方の翻訳品質を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2020-10-06T06:54:12Z) - Improving Massively Multilingual Neural Machine Translation and
Zero-Shot Translation [81.7786241489002]
ニューラルネットワーク翻訳(NMT)の多言語モデルは理論的には魅力的であるが、しばしばバイリンガルモデルに劣る。
我々は,多言語NMTが言語ペアをサポートするためにより強力なモデリング能力を必要とすることを論じる。
未知のトレーニング言語ペアの翻訳を強制するために,ランダムなオンライン翻訳を提案する。
論文 参考訳(メタデータ) (2020-04-24T17:21:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。