論文の概要: A Simple and Effective Approach to Robust Unsupervised Bilingual
Dictionary Induction
- arxiv url: http://arxiv.org/abs/2011.14874v1
- Date: Mon, 30 Nov 2020 15:11:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-06 14:52:22.154531
- Title: A Simple and Effective Approach to Robust Unsupervised Bilingual
Dictionary Induction
- Title(参考訳): ロバストな教師なしバイリンガル辞書インダクションへの簡便かつ効果的なアプローチ
- Authors: Yanyang Li, Yingfeng Luo, Ye Lin, Quan Du, Huizhen Wang, Shujian
Huang, Tong Xiao, Jingbo Zhu
- Abstract要約: 本稿では,自己学習の実際の性能と,それを実現するための最小性能とのギャップを埋めるため,反復次元削減法を提案する。
実験の結果,本手法は類似言語対の性能を損なうことなく,13.6455.53%の精度を実現していることがわかった。
- 参考スコア(独自算出の注目度): 38.65223621616564
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised Bilingual Dictionary Induction methods based on the
initialization and the self-learning have achieved great success in similar
language pairs, e.g., English-Spanish. But they still fail and have an accuracy
of 0% in many distant language pairs, e.g., English-Japanese. In this work, we
show that this failure results from the gap between the actual initialization
performance and the minimum initialization performance for the self-learning to
succeed. We propose Iterative Dimension Reduction to bridge this gap. Our
experiments show that this simple method does not hamper the performance of
similar language pairs and achieves an accuracy of 13.64~55.53% between English
and four distant languages, i.e., Chinese, Japanese, Vietnamese and Thai.
- Abstract(参考訳): 初期化と自己学習に基づく教師なし二言語辞書誘導法は、類似の言語対(例えば英語とスペイン語)で大きな成功を収めている。
しかし、彼らはまだ失敗し、英語と日本語など、多くの遠い言語対で0%の精度を持つ。
本研究では,この失敗が,自己学習を成功させる上で,実際の初期化性能と最小初期化性能とのギャップに起因することを示す。
このギャップを埋めるために反復次元削減法を提案する。
本実験により, 類似言語対の性能を損なうことなく, 中国語, 日本語, ベトナム語, タイ語の4言語間で13.64~55.53%の精度が得られることがわかった。
関連論文リスト
- From English-Centric to Effective Bilingual: LLMs with Custom Tokenizers for Underrepresented Languages [0.5706164516481158]
そこで本研究では,二言語ベース大言語モデル (LLM) を開発するための,モデルに依存しないコスト効率のアプローチを提案する。
私たちは3つの言語で実験を行い、それぞれが非ラテン文字(ウクライナ語、アラビア語、グルジア語)を使用しました。
論文 参考訳(メタデータ) (2024-10-24T15:20:54Z) - Analyzing and Reducing the Performance Gap in Cross-Lingual Transfer
with Fine-tuning Slow and Fast [50.19681990847589]
既存の研究では、1つの(ソース)言語で微調整された多言語事前学習言語モデルが、非ソース言語の下流タスクでもうまく機能していることが示されている。
本稿では、微調整プロセスを分析し、パフォーマンスギャップがいつ変化するかを分析し、ネットワークの重みが全体のパフォーマンスに最も影響するかを特定する。
論文 参考訳(メタデータ) (2023-05-19T06:04:21Z) - Ensemble Transfer Learning for Multilingual Coreference Resolution [60.409789753164944]
非英語で作業する場合に頻繁に発生する問題は、注釈付きトレーニングデータの不足である。
我々は,様々なトランスファー学習技術を組み合わせた,シンプルだが効果的なアンサンブルベースのフレームワークを設計する。
また、ウィキペディアアンカーテキストを利用して、コア参照解決モデルをブートストラップする低コストのTL手法を提案する。
論文 参考訳(メタデータ) (2023-01-22T18:22:55Z) - Overcoming Catastrophic Forgetting in Zero-Shot Cross-Lingual Generation [48.80125962015044]
ラベル付きデータが英語でのみ利用可能である場合、対象言語で生成タスク(すなわち要約)を実行するという問題について検討する。
パラメータ効率の低い言語間での移動において、パラメータ効率の適応は標準的な微調整よりも向上することがわかった。
提案手法はさらなる品質向上を実現し,ロバストなゼロショット・クロスランガル生成が到達範囲内であることを示唆する。
論文 参考訳(メタデータ) (2022-05-25T10:41:34Z) - Por Qu\'e N\~ao Utiliser Alla Spr{\aa}k? Mixed Training with Gradient
Optimization in Few-Shot Cross-Lingual Transfer [2.7213511121305465]
本研究では,ソースデータとターゲットデータの両方を学習する1ステップ混合学習手法を提案する。
我々は1つのモデルを使って全てのターゲット言語を同時に処理し、過度に言語固有のモデルを避ける。
提案手法は,全タスクの最先端性能と目標適応性能を高いマージンで向上させる。
論文 参考訳(メタデータ) (2022-04-29T04:05:02Z) - From Good to Best: Two-Stage Training for Cross-lingual Machine Reading
Comprehension [51.953428342923885]
モデル性能を向上させるための2段階のアプローチを開発する。
我々は、トップk予測が正確な答えを含む確率を最大化するために、ハードラーニング(HL)アルゴリズムを設計する。
第2段階では, 正解と他の候補との微妙な違いを学習するために, 解答を意識したコントラスト学習機構が開発された。
論文 参考訳(メタデータ) (2021-12-09T07:31:15Z) - Simple and Effective Zero-shot Cross-lingual Phoneme Recognition [46.76787843369816]
本稿では,複数言語で事前訓練されたwav2vec 2.0モデルを微調整し,未知の言語を転写することで,ゼロショット・クロスリンガル変換学習に関するこれまでの研究を拡張した。
実験によると、この単純な手法はタスク固有のアーキテクチャを導入した以前の作業よりも大幅に優れていた。
論文 参考訳(メタデータ) (2021-09-23T22:50:32Z) - Knowledge Distillation for Multilingual Unsupervised Neural Machine
Translation [61.88012735215636]
unsupervised neural machine translation (UNMT) は、最近、いくつかの言語対に対して顕著な結果を得た。
UNMTは単一の言語ペア間でのみ翻訳することができ、同時に複数の言語ペアに対して翻訳結果を生成することはできない。
本稿では,1つのエンコーダと1つのデコーダを用いて13言語間を翻訳する簡単な手法を実証的に紹介する。
論文 参考訳(メタデータ) (2020-04-21T17:26:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。