論文の概要: Controlling Translation Formality Using Pre-trained Multilingual
Language Models
- arxiv url: http://arxiv.org/abs/2205.06644v1
- Date: Fri, 13 May 2022 13:47:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-16 17:14:50.072640
- Title: Controlling Translation Formality Using Pre-trained Multilingual
Language Models
- Title(参考訳): 事前学習多言語モデルを用いた翻訳形式制御
- Authors: Elijah Rippeth and Sweta Agrawal and Marine Carpuat
- Abstract要約: 本稿では,メリーランド大学のiwsltにおける音声言語翻訳における形式性制御特別課題への提出について述べる。
本研究は,テキスト型多言語モデルを用いて,この問題にどの程度対処できるかを検討する。
その結果、この戦略は、専用翻訳モデルによって達成された翻訳品質と形式制御にアプローチできることが示唆された。
- 参考スコア(独自算出の注目度): 19.465727478912072
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes the University of Maryland's submission to the Special
Task on Formality Control for Spoken Language Translation at \iwslt, which
evaluates translation from English into 6 languages with diverse grammatical
formality markers. We investigate to what extent this problem can be addressed
with a \textit{single multilingual model}, simultaneously controlling its
output for target language and formality. Results show that this strategy can
approach the translation quality and formality control achieved by dedicated
translation models. However, the nature of the underlying pre-trained language
model and of the finetuning samples greatly impact results.
- Abstract(参考訳): 本稿では、メリーランド大学が発声言語翻訳の形式性制御に関する特別課題である \iwslt への提案について述べる。
対象言語と形式性の出力を同時に制御することで,この問題に対して \textit{single multilingual model} がどの程度対処できるかを検討する。
その結果、この戦略は、専用翻訳モデルによって達成された翻訳品質と形式制御にアプローチできることを示した。
しかし、基礎となる事前学習言語モデルと微調整サンプルの性質は結果に大きな影響を及ぼす。
関連論文リスト
- Machine Translation to Control Formality Features in the Target Language [0.9208007322096532]
本研究では、機械学習が英語からフォーマルな言語への翻訳にどのように使われているかを検討する。
これは、形式性制御された設定でバイリンガルモデルを訓練し、その性能を事前訓練された多言語モデルと比較することで実現された。
予測されたマスク付きトークンと基底真理を比較することにより,公式な形式性精度(ACC)を評価する。
論文 参考訳(メタデータ) (2023-11-22T15:42:51Z) - Align after Pre-train: Improving Multilingual Generative Models with
Cross-lingual Alignment [46.56459977441824]
本稿では,一対の翻訳文を利用した簡易かつ効果的なアライメントフレームワークを提案する。
多言語コントラスト学習を通じて、異なる言語にまたがる内部文表現を整合させる。
実験結果から, 事前学習トークンの 0.1 文節未満であっても, アライメントフレームワークは生成モデルの言語横断能力を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2023-11-14T11:24:08Z) - Empowering Cross-lingual Abilities of Instruction-tuned Large Language
Models by Translation-following demonstrations [0.8133739801185272]
We propose CrossAlpaca, a It-LLM with cross-lingual instruction-following and translation-following demonstrations。
我々のモデルは、6つの異なる言語でテストされ、単言語データで調整された It-LLM よりも優れています。
論文 参考訳(メタデータ) (2023-08-27T19:22:12Z) - Iterative Translation Refinement with Large Language Models [18.496393796992212]
本稿では,大規模言語モデルを反復的プロセスに組み込むことで,単なる翻訳以上の出力品質を向上させることを示す。
GPT-3.5によるテストシナリオでは、反復は文字列ベースのメートル法スコアを減少させるが、ニューラルネットワークメトリクスは翻訳品質を向上しないかどうかを示す。
論文 参考訳(メタデータ) (2023-06-06T16:51:03Z) - Decomposed Prompting for Machine Translation Between Related Languages
using Large Language Models [55.35106713257871]
DecoMTは、単語チャンク翻訳のシーケンスに翻訳プロセスを分解する、数発のプロンプトの新しいアプローチである。
DecoMTはBLOOMモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-22T14:52:47Z) - MultiTACRED: A Multilingual Version of the TAC Relation Extraction
Dataset [6.7839993945546215]
そこで本研究では,9つの言語群から12種類の言語を対象とするMultiTACREDデータセットについて紹介する。
翻訳とアノテーションのプロジェクションの品質を分析し、エラーカテゴリを特定し、訓練済みの単言語および多言語言語モデルの微調整を実験的に評価する。
対象言語の多くにおいて、モノリンガルREモデルの性能は英語オリジナルに匹敵するものであり、英語とターゲット言語データの組み合わせで訓練された多言語モデルは、モノリンガルモデルよりも優れている。
論文 参考訳(メタデータ) (2023-05-08T09:48:21Z) - Lifting the Curse of Multilinguality by Pre-training Modular
Transformers [72.46919537293068]
多言語事前訓練されたモデルは、多言語間のパフォーマンスが低下する、多言語間の呪いに苦しむ。
言語固有のモジュールを導入し、言語定数当たりのトレーニング可能なパラメータの総数を保ちながら、モデルの総容量を拡大できるようにします。
我々のアプローチは、測定可能な性能低下のないポストホック言語の追加を可能にし、モデルの使用を事前訓練された言語セットに制限しない。
論文 参考訳(メタデータ) (2022-05-12T17:59:56Z) - Specializing Multilingual Language Models: An Empirical Study [50.7526245872855]
事前訓練された多言語モデルからの文脈化語表現は、自然言語タスクに対処するデファクトスタンダードとなっている。
これらのモデルではまれに、あるいは一度も見られない言語では、そのようなモデルを直接使用すると、最適な表現やデータの使用につながることが多い。
論文 参考訳(メタデータ) (2021-06-16T18:13:55Z) - Improving the Lexical Ability of Pretrained Language Models for
Unsupervised Neural Machine Translation [127.81351683335143]
クロスリンガルプリトレーニングは、2つの言語の語彙的表現と高レベル表現を整列させるモデルを必要とする。
これまでの研究では、これは表現が十分に整合していないためです。
本稿では,語彙レベルの情報で事前学習するバイリンガルマスク言語モデルを,型レベルのクロスリンガルサブワード埋め込みを用いて強化する。
論文 参考訳(メタデータ) (2021-03-18T21:17:58Z) - Exemplar-Controllable Paraphrasing and Translation using Bitext [57.92051459102902]
私たちは、バイリンガルテキスト(bitext)からのみ学ぶことができるように、以前の作業からモデルを適用する。
提案した1つのモデルでは、両言語で制御されたパラフレーズ生成と、両言語で制御された機械翻訳の4つのタスクを実行することができる。
論文 参考訳(メタデータ) (2020-10-12T17:02:50Z) - On the Importance of Word Order Information in Cross-lingual Sequence
Labeling [80.65425412067464]
ソース言語の単語順に適合する言語間モデルでは、ターゲット言語を処理できない可能性がある。
本研究では,ソース言語の単語順序に敏感なモデルを作成することで,対象言語の適応性能が向上するかどうかを検討する。
論文 参考訳(メタデータ) (2020-01-30T03:35:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。