論文の概要: The Reality of Multi-Lingual Machine Translation
- arxiv url: http://arxiv.org/abs/2202.12814v1
- Date: Fri, 25 Feb 2022 16:44:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-28 17:20:24.651182
- Title: The Reality of Multi-Lingual Machine Translation
- Title(参考訳): 多言語機械翻訳の現実
- Authors: Tom Kocmi and Dominik Mach\'a\v{c}ek and Ond\v{r}ej Bojar
- Abstract要約: 『多言語機械翻訳の現実』では、機械翻訳システムにおける2言語以上の使用の利点と危険性について論じている。
著者: ディープラーニングアプリケーションの主な例は機械翻訳です。
- 参考スコア(独自算出の注目度): 3.183845608678763
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Our book "The Reality of Multi-Lingual Machine Translation" discusses the
benefits and perils of using more than two languages in machine translation
systems. While focused on the particular task of sequence-to-sequence
processing and multi-task learning, the book targets somewhat beyond the area
of natural language processing. Machine translation is for us a prime example
of deep learning applications where human skills and learning capabilities are
taken as a benchmark that many try to match and surpass. We document that some
of the gains observed in multi-lingual translation may result from simpler
effects than the assumed cross-lingual transfer of knowledge.
In the first, rather general part, the book will lead you through the
motivation for multi-linguality, the versatility of deep neural networks
especially in sequence-to-sequence tasks to complications of this learning. We
conclude the general part with warnings against too optimistic and unjustified
explanations of the gains that neural networks demonstrate.
In the second part, we fully delve into multi-lingual models, with a
particularly careful examination of transfer learning as one of the more
straightforward approaches utilizing additional languages. The recent
multi-lingual techniques, including massive models, are surveyed and practical
aspects of deploying systems for many languages are discussed. The conclusion
highlights the open problem of machine understanding and reminds of two ethical
aspects of building large-scale models: the inclusivity of research and its
ecological trace.
- Abstract(参考訳): 本書"the reality of multi-lingual machine translation"では,機械翻訳システムにおける2つ以上の言語の使用のメリットと周辺について論じる。
シーケンシャル・ツー・シーケンス処理とマルチタスク学習の特定のタスクにフォーカスしながら、本書は自然言語処理の領域を少し超えている。
機械翻訳は、人間のスキルと学習能力を、多くの人々がマッチし、超えようとするベンチマークとして捉える、ディープラーニングアプリケーションの典型例です。
多言語翻訳で観察される成果のいくつかは、知識の言語間移動が想定されるよりも単純な効果による可能性がある。
第一部では、本書は、多言語性、深層ニューラルネットワークの汎用性、特にこの学習の複雑化に対するシーケンス・ツー・シーケンスタスクの動機を導いてくれるだろう。
我々は、ニューラルネットワークが示す成果のあまりに楽観的で不当な説明に対する警告で、一般的な部分を締めくくった。
第2部では,多言語モデルを完全に検討し,追加言語を活用したより分かりやすいアプローチのひとつとして,転校学習を特に慎重に検討する。
大規模モデルを含む近年の多言語技術について調査し,多くの言語に対するシステム展開の実践的側面について論じる。
この結論は、機械理解のオープンな問題を強調し、大規模なモデルを構築するための2つの倫理的側面、すなわち研究の傾きと生態的痕跡を思い出させる。
関連論文リスト
- Informative Language Representation Learning for Massively Multilingual
Neural Machine Translation [47.19129812325682]
多言語ニューラルマシン翻訳モデルでは、通常、人工言語トークンを使用して、所望のターゲット言語への翻訳をガイドする。
近年の研究では、先行する言語トークンは、多言語ニューラルマシン翻訳モデルから正しい翻訳方向へのナビゲートに失敗することがある。
本稿では,言語埋め込み型エンボディメントと言語認識型マルチヘッドアテンションという2つの手法を提案する。
論文 参考訳(メタデータ) (2022-09-04T04:27:17Z) - On the cross-lingual transferability of multilingual prototypical models
across NLU tasks [2.44288434255221]
教師付きディープラーニングベースのアプローチはタスク指向のダイアログに適用され、限られたドメインや言語アプリケーションに有効であることが証明されている。
実際には、これらのアプローチはドメイン駆動設計とアンダーリソース言語の欠点に悩まされている。
本稿では,原型ニューラルネットワークと多言語トランスフォーマーモデルを用いた相乗的少数ショット学習の言語間変換可能性について検討する。
論文 参考訳(メタデータ) (2022-07-19T09:55:04Z) - Towards Best Practices for Training Multilingual Dense Retrieval Models [54.91016739123398]
我々は,このような設計を用いて,多種多様言語における単言語検索の課題に焦点をあてる。
本研究は多言語高密度検索モデルのトレーニングのための「ベストプラクティス」ガイドとして組織されている。
論文 参考訳(メタデータ) (2022-04-05T17:12:53Z) - Exploring Teacher-Student Learning Approach for Multi-lingual
Speech-to-Intent Classification [73.5497360800395]
複数の言語をサポートするエンドツーエンドシステムを開発した。
我々は、事前訓練された多言語自然言語処理モデルからの知識を利用する。
論文 参考訳(メタデータ) (2021-09-28T04:43:11Z) - Importance-based Neuron Allocation for Multilingual Neural Machine
Translation [27.65375150324557]
本稿では,言語間の重要性に基づいて,モデルニューロンを汎用と言語固有の部分に分割することを提案する。
一般的な部分は、一般的な知識を保存し、すべての言語の翻訳に参加する責任がある。
言語固有の部分は、言語固有の知識を保持し、特定の言語の翻訳に参加する責任がある。
論文 参考訳(メタデータ) (2021-07-14T09:15:05Z) - AM2iCo: Evaluating Word Meaning in Context across Low-ResourceLanguages
with Adversarial Examples [51.048234591165155]
本稿では, AM2iCo, Adversarial and Multilingual Meaning in Contextを提案する。
言語間文脈における単語の意味の同一性を理解するために、最先端(SotA)表現モデルを忠実に評価することを目的としている。
その結果、現在のSotAプリトレーニングエンコーダは人間のパフォーマンスにかなり遅れていることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-17T20:23:45Z) - First Align, then Predict: Understanding the Cross-Lingual Ability of
Multilingual BERT [2.2931318723689276]
言語間移動は、ある言語への関心のタスクを微調整し、ある言語を個別に評価することから生じる。
多言語bertは,マルチリンガルエンコーダとタスク固有言語非依存予測器の2つのサブネットワークの積み重ねと見なすことができる。
エンコーダは言語間移動に不可欠であり、微調整中はほとんど変化しないが、タスク予測器は転写にほとんど重要ではなく、微調整時に赤くなる。
論文 参考訳(メタデータ) (2021-01-26T22:12:38Z) - Evaluating Multilingual Text Encoders for Unsupervised Cross-Lingual
Retrieval [51.60862829942932]
本稿では,言語間文書・文検索タスクにおける最先端多言語エンコーダの適合性に着目した体系的実証研究を行う。
文レベルのCLIRでは、最先端のパフォーマンスが達成できることを実証する。
しかし、ピーク性能は、汎用の多言語テキストエンコーダをオフ・ザ・シェルフで使うのではなく、文の理解タスクにさらに特化したバリエーションに依存している。
論文 参考訳(メタデータ) (2021-01-21T00:15:38Z) - Bridging Linguistic Typology and Multilingual Machine Translation with
Multi-View Language Representations [83.27475281544868]
特異ベクトル標準相関解析を用いて、各情報源からどのような情報が誘導されるかを調べる。
我々の表現は類型学を組み込み、言語関係と相関関係を強化する。
次に、多言語機械翻訳のための多視点言語ベクトル空間を利用して、競合する全体的な翻訳精度を実現する。
論文 参考訳(メタデータ) (2020-04-30T16:25:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。