論文の概要: Using CollGram to Compare Formulaic Language in Human and Neural Machine
Translation
- arxiv url: http://arxiv.org/abs/2107.03625v1
- Date: Thu, 8 Jul 2021 06:30:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-09 20:20:53.771670
- Title: Using CollGram to Compare Formulaic Language in Human and Neural Machine
Translation
- Title(参考訳): CollGramを用いた人間とニューラルマシンの翻訳におけるフォーミュラ言語の比較
- Authors: Yves Bestgen
- Abstract要約: 質の高い新聞記事の人間とニューラルマシン翻訳における公式シーケンスの比較では、ニューラルマシン翻訳は低周波であるが強関連な公式シーケンスを含んでいることが示されている。
これらの差は統計的に有意であり、効果の大きさはほぼ常に中程度であった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A comparison of formulaic sequences in human and neural machine translation
of quality newspaper articles shows that neural machine translations contain
less lower-frequency, but strongly-associated formulaic sequences, and more
high-frequency formulaic sequences. These differences were statistically
significant and the effect sizes were almost always medium or large. These
observations can be related to the differences between second language learners
of various levels and between translated and untranslated texts. The comparison
between the neural machine translation systems indicates that some systems
produce more formulaic sequences of both types than other systems.
- Abstract(参考訳): 質の高い新聞記事の人間とニューラルマシン翻訳における公式シーケンスの比較では、ニューラルマシン翻訳は低頻度であるが、強い関連のある公式シーケンス、より高周波な公式シーケンスを含んでいる。
これらの差は統計的に有意であり、効果の大きさはほぼ常に中程度であった。
これらの観察は、様々なレベルの第二言語学習者と翻訳されたテキストと翻訳されていないテキストの違いと関係がある。
ニューラルマシン翻訳システムの比較は、いくつかのシステムが他のシステムよりも、両方のタイプの公式シーケンスを生成することを示している。
関連論文リスト
- Comparing Formulaic Language in Human and Machine Translation: Insight
from a Parliamentary Corpus [0.0]
このテキストは、DeepL、Google Translate、Microsoft Translatorの3つのよく知られたニューラルネットワーク翻訳システムによって、フランス語から英語に翻訳された。
その結果, ニュースコーパスの観測結果が確認できたが, 違いは少ない。
彼らは、通常、議会のコーパスのようなよりリテラルな翻訳をもたらすテキストのジャンルを使うことが、人間と機械の翻訳を比較する際に好ましいことを示唆している。
論文 参考訳(メタデータ) (2022-06-22T08:59:10Z) - How Robust is Neural Machine Translation to Language Imbalance in
Multilingual Tokenizer Training? [86.48323488619629]
トークン化学習コーパスにおいて,言語間でのデータ比が変化するにつれて,翻訳性能がどう変化するかを分析する。
言語が均等にサンプリングされる場合、比較的優れたパフォーマンスが観察されることが多いが、下流のパフォーマンスは、通常予想していたよりも、言語の不均衡に対して堅牢である。
論文 参考訳(メタデータ) (2022-04-29T17:50:36Z) - Modeling Target-Side Morphology in Neural Machine Translation: A
Comparison of Strategies [72.56158036639707]
形態的に豊かな言語は機械翻訳に困難をもたらす。
多数の異なる屈折する単語曲面は、より大きな語彙を必要とする。
いくつかの頻度の低い用語は、通常、トレーニングコーパスには現れない。
言語的合意は、出力文中の屈折語形間の文法的カテゴリを正しく一致させる必要がある。
論文 参考訳(メタデータ) (2022-03-25T10:13:20Z) - Comparing Feature-Engineering and Feature-Learning Approaches for
Multilingual Translationese Classification [11.364204162881482]
従来のフィーチャーエンジニアリングベースのアプローチとフィーチャーラーニングベースのアプローチを比較します。
我々は,手作りの特徴がニューラルネットワークの予測のばらつきをいかにうまく説明するかを考察する。
論文 参考訳(メタデータ) (2021-09-15T22:34:48Z) - Automatic Classification of Human Translation and Machine Translation: A
Study from the Perspective of Lexical Diversity [1.5229257192293197]
機械翻訳と人間の翻訳は、チャンスレベル以上の精度で分類できることを示しています。
機械翻訳の分類精度は人間の翻訳よりもはるかに高い。
論文 参考訳(メタデータ) (2021-05-10T18:55:04Z) - Enriching Non-Autoregressive Transformer with Syntactic and
SemanticStructures for Neural Machine Translation [54.864148836486166]
本稿では,言語の明示的な構文構造と意味構造を非自己回帰トランスフォーマーに組み込むことを提案する。
我々のモデルは、最先端の非自己回帰モデルと比較して翻訳品質を保ちながら、はるかに高速な速度を実現している。
論文 参考訳(メタデータ) (2021-01-22T04:12:17Z) - Neural Representations for Modeling Variation in Speech [9.27189407857061]
ニューラルモデルを用いて、英語の母語話者と母語話者の単語ベースの発音差を計算する。
特定のタイプのニューラルモデル(すなわちトランスフォーマー)から抽出された音声表現は,従来の2つのアプローチよりも,人間の知覚とよりよく一致していることを示す。
論文 参考訳(メタデータ) (2020-11-25T11:19:12Z) - On Long-Tailed Phenomena in Neural Machine Translation [50.65273145888896]
最先端のニューラルネットワーク翻訳(NMT)モデルは、低周波トークンの生成に苦労する。
条件付きテキスト生成における構造的依存関係にモデルトレーニングを適応させるために,新たな損失関数である反焦点損失を提案する。
提案手法は,複数の機械翻訳(MT)データセットに対して有効であり,クロスエントロピーよりも顕著に向上することを示す。
論文 参考訳(メタデータ) (2020-10-10T07:00:57Z) - Robust Neural Machine Translation: Modeling Orthographic and
Interpunctual Variation [3.3194866396158]
そこで本研究では,10種類の逆例を生成するための簡易な生成ノイズモデルを提案する。
ノイズの多いデータでテストすると、敵の例を使って訓練されたシステムは、クリーンなデータを翻訳するのと同様に、ほぼ同等に機能することを示す。
論文 参考訳(メタデータ) (2020-09-11T14:12:54Z) - Mechanisms for Handling Nested Dependencies in Neural-Network Language
Models and Humans [75.15855405318855]
我々は,「深層学習」手法で訓練された現代人工ニューラルネットワークが,人間の文処理の中心的な側面を模倣するかどうかを検討した。
ネットワークは、大きなコーパスで次の単語を予測するためにのみ訓練されたが、分析の結果、局所的および長距離の構文合意をうまく処理する特別なユニットが出現した。
我々は,複数の名詞の単数/複数状態における体系的な変化を伴う文中の数一致の違反を人間が検出する行動実験において,モデルの予測を検証した。
論文 参考訳(メタデータ) (2020-06-19T12:00:05Z) - It's Easier to Translate out of English than into it: Measuring Neural
Translation Difficulty by Cross-Mutual Information [90.35685796083563]
クロスミューチュアル情報(英: Cross-mutual information、XMI)は、機械翻訳の難易度に関する非対称情報理論の指標である。
XMIは、ほとんどのニューラルマシン翻訳モデルの確率的性質を利用する。
本稿では,現代ニューラル翻訳システムを用いた言語間翻訳の難易度に関する最初の体系的および制御的な研究について述べる。
論文 参考訳(メタデータ) (2020-05-05T17:38:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。