論文の概要: Using natural language prompts for machine translation
- arxiv url: http://arxiv.org/abs/2202.11822v1
- Date: Wed, 23 Feb 2022 23:20:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-25 16:32:30.007564
- Title: Using natural language prompts for machine translation
- Title(参考訳): 機械翻訳に自然言語プロンプトを使う
- Authors: Xavier Garcia, Orhan Firat
- Abstract要約: 言語名を用いて多言語翻訳モデルの出力言語を制御することにより、未知の言語ペアに対する肯定的な転送が可能となることを示す。
本研究では,スケール,事前学習ステップ数,微調整における言語数,言語類似性が,この現象に与える影響について検討する。
- 参考スコア(独自算出の注目度): 43.440349108071096
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We explore the use of natural language prompts for controlling various
aspects of the outputs generated by machine translation models. We demonstrate
that natural language prompts allow us to influence properties like formality
or specific dialect of the output. We show that using language names to control
the output language of multilingual translation models enables positive
transfer for unseen language pairs. This unlocks the ability to translate into
languages not seen during fine-tuning by using their English names. We
investigate how scale, number of pre-training steps, number of languages in
fine-tuning, and language similarity affect this phenomenon.
- Abstract(参考訳): 機械翻訳モデルによって生成された出力の様々な側面を制御するための自然言語プロンプトの利用について検討する。
自然言語は、形式性やアウトプットの特定の方言といった特性に影響を与え得ることを実証する。
言語名を用いて多言語翻訳モデルの出力言語を制御することで、未知の言語ペアに対する肯定的な転送が可能になることを示す。
これにより、英語名を使って微調整中に見ることができない言語に翻訳する能力が解放される。
本研究では,この現象がスケール,事前学習ステップ数,微調整言語数,言語類似性に与える影響について検討する。
関連論文リスト
- Decoupled Vocabulary Learning Enables Zero-Shot Translation from Unseen Languages [55.157295899188476]
ニューラルマシン翻訳システムは、異なる言語の文を共通の表現空間にマッピングすることを学ぶ。
本研究では、この仮説を未知の言語からのゼロショット翻訳により検証する。
この設定により、全く見えない言語からのゼロショット翻訳が可能になることを実証する。
論文 参考訳(メタデータ) (2024-08-05T07:58:58Z) - Soft Language Identification for Language-Agnostic Many-to-One End-to-End Speech Translation [40.0365339798752]
多くのエンドツーエンドの音声翻訳モデルは、異なるソース言語からの音声信号をターゲット言語でテキストに変換することができる。
場合によっては、入力言語を付与または推定することができる。
我々は、単純で効果的な線形入力ネットワークを導入することで、これを実現する。
論文 参考訳(メタデータ) (2024-06-12T00:00:39Z) - Transparency Helps Reveal When Language Models Learn Meaning [71.96920839263457]
合成データを用いた体系的な実験により,すべての表現が文脈に依存しない意味を持つ言語では,自己回帰型とマスキング型の両方の言語モデルが,表現間の意味的関係をエミュレートする。
自然言語に目を向けると、特定の現象(参照不透明さ)による実験は、現在の言語モデルが自然言語の意味論をうまく表現していないという証拠を増大させる。
論文 参考訳(メタデータ) (2022-10-14T02:35:19Z) - Informative Language Representation Learning for Massively Multilingual
Neural Machine Translation [47.19129812325682]
多言語ニューラルマシン翻訳モデルでは、通常、人工言語トークンを使用して、所望のターゲット言語への翻訳をガイドする。
近年の研究では、先行する言語トークンは、多言語ニューラルマシン翻訳モデルから正しい翻訳方向へのナビゲートに失敗することがある。
本稿では,言語埋め込み型エンボディメントと言語認識型マルチヘッドアテンションという2つの手法を提案する。
論文 参考訳(メタデータ) (2022-09-04T04:27:17Z) - Lifting the Curse of Multilinguality by Pre-training Modular
Transformers [72.46919537293068]
多言語事前訓練されたモデルは、多言語間のパフォーマンスが低下する、多言語間の呪いに苦しむ。
言語固有のモジュールを導入し、言語定数当たりのトレーニング可能なパラメータの総数を保ちながら、モデルの総容量を拡大できるようにします。
我々のアプローチは、測定可能な性能低下のないポストホック言語の追加を可能にし、モデルの使用を事前訓練された言語セットに制限しない。
論文 参考訳(メタデータ) (2022-05-12T17:59:56Z) - Towards Zero-shot Language Modeling [90.80124496312274]
人間の言語学習に誘導的に偏りを持つニューラルモデルを構築した。
類型的に多様な訓練言語のサンプルからこの分布を推測する。
我々は、保留言語に対する遠隔監視として、追加の言語固有の側情報を利用する。
論文 参考訳(メタデータ) (2021-08-06T23:49:18Z) - Bridging Linguistic Typology and Multilingual Machine Translation with
Multi-View Language Representations [83.27475281544868]
特異ベクトル標準相関解析を用いて、各情報源からどのような情報が誘導されるかを調べる。
我々の表現は類型学を組み込み、言語関係と相関関係を強化する。
次に、多言語機械翻訳のための多視点言語ベクトル空間を利用して、競合する全体的な翻訳精度を実現する。
論文 参考訳(メタデータ) (2020-04-30T16:25:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。