論文の概要: Morphologically Aware Word-Level Translation
- arxiv url: http://arxiv.org/abs/2011.07593v1
- Date: Sun, 15 Nov 2020 17:54:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 07:23:18.825699
- Title: Morphologically Aware Word-Level Translation
- Title(参考訳): 形態認識型単語レベル翻訳
- Authors: Paula Czarnowska, Sebastian Ruder, Ryan Cotterell, Ann Copestake
- Abstract要約: 本稿では,バイリンガルレキシコン誘導のための新しい形態素認識確率モデルを提案する。
我々のモデルは、レキセメが意味の鍵となる語彙単位であるという基本的な言語的直観を生かしている。
- 参考スコア(独自算出の注目度): 82.59379608647147
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel morphologically aware probability model for bilingual
lexicon induction, which jointly models lexeme translation and inflectional
morphology in a structured way. Our model exploits the basic linguistic
intuition that the lexeme is the key lexical unit of meaning, while
inflectional morphology provides additional syntactic information. This
approach leads to substantial performance improvements - 19% average
improvement in accuracy across 6 language pairs over the state of the art in
the supervised setting and 16% in the weakly supervised setting. As another
contribution, we highlight issues associated with modern BLI that stem from
ignoring inflectional morphology, and propose three suggestions for improving
the task.
- Abstract(参考訳): 本稿では,レキセメ翻訳と屈折形態を構造的にモデル化したバイリンガルレキシコン誘導のための新しい形態論的確率モデルを提案する。
我々のモデルは、レキセメが意味の鍵となる語彙単位であるという基本的な言語的直観を生かし、屈折形態学は追加の構文情報を提供する。
このアプローチはパフォーマンスが大幅に向上する - 6つの言語ペアで平均19%の精度向上が,教師あり設定における技術状態よりも向上し,弱い教師付き設定では16%向上する。
もう1つの貢献として,変形形態を無視することに起因する現代bliに関連する問題点を強調し,タスク改善のための3つの提案を提案する。
関連論文リスト
- Can a Neural Model Guide Fieldwork? A Case Study on Morphological Inflection [3.48094693551887]
言語学のフィールドワークは、言語の文書化と保存において重要な要素である。
本稿では,言語学者をフィールドワーク中に指導し,言語学者と話者の相互作用のダイナミクスを説明する新しいモデルを提案する。
論文 参考訳(メタデータ) (2024-09-22T23:40:03Z) - Explicit Morphological Knowledge Improves Pre-training of Language
Models for Hebrew [19.4968960182412]
事前学習フェーズに明示的な形態的知識を組み込むことで、形態学的に豊かな言語に対するPLMの性能を向上させることができるという仮説を考察する。
本研究では, モデルが生テキスト以外の形態的手がかりを活用できるように, 様々な形態的トークン化手法を提案する。
実験により, 形態素によるトークン化は, 標準言語に依存しないトークン化と比較して, 改良された結果を示すことが示された。
論文 参考訳(メタデータ) (2023-11-01T17:02:49Z) - Multilingual Extraction and Categorization of Lexical Collocations with
Graph-aware Transformers [86.64972552583941]
我々は,グラフ対応トランスフォーマアーキテクチャにより拡張されたBERTに基づくシーケンスタグ付けモデルを提案し,コンテキストにおけるコロケーション認識の課題について評価した。
以上の結果から, モデルアーキテクチャにおける構文的依存関係を明示的に符号化することは有用であり, 英語, スペイン語, フランス語におけるコロケーションのタイプ化の差異について考察する。
論文 参考訳(メタデータ) (2022-05-23T16:47:37Z) - Modeling Target-Side Morphology in Neural Machine Translation: A
Comparison of Strategies [72.56158036639707]
形態的に豊かな言語は機械翻訳に困難をもたらす。
多数の異なる屈折する単語曲面は、より大きな語彙を必要とする。
いくつかの頻度の低い用語は、通常、トレーニングコーパスには現れない。
言語的合意は、出力文中の屈折語形間の文法的カテゴリを正しく一致させる必要がある。
論文 参考訳(メタデータ) (2022-03-25T10:13:20Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - Translating from Morphologically Complex Languages: A Paraphrase-Based
Approach [45.900339652085584]
形態的関連語間の相互関係を潜在的なパラフレーズとして扱い,単語,句,文レベルでのパラフレーズ化手法を用いて処理する。
マレー語から英語に翻訳された実験は、競合するアプローチよりも大幅に改善されている。
論文 参考訳(メタデータ) (2021-09-27T07:02:19Z) - Incorporating Linguistic Knowledge for Abstractive Multi-document
Summarization [20.572283625521784]
ニューラルネットワークに基づく抽象的多文書要約(MDS)モデルを開発した。
依存関係情報を言語誘導型注意機構に処理する。
言語信号の助けを借りて、文レベルの関係を正しく捉えることができる。
論文 参考訳(メタデータ) (2021-09-23T08:13:35Z) - Improving the Lexical Ability of Pretrained Language Models for
Unsupervised Neural Machine Translation [127.81351683335143]
クロスリンガルプリトレーニングは、2つの言語の語彙的表現と高レベル表現を整列させるモデルを必要とする。
これまでの研究では、これは表現が十分に整合していないためです。
本稿では,語彙レベルの情報で事前学習するバイリンガルマスク言語モデルを,型レベルのクロスリンガルサブワード埋め込みを用いて強化する。
論文 参考訳(メタデータ) (2021-03-18T21:17:58Z) - Linguistic Features for Readability Assessment [0.0]
言語的に動機づけられた特徴を持つディープラーニングモデルを強化することで、パフォーマンスがさらに向上するかどうかは不明だ。
十分なトレーニングデータから、言語的に動機づけられた特徴を持つディープラーニングモデルを増強しても、最先端のパフォーマンスは向上しないことがわかった。
本研究は,現在最先端のディープラーニングモデルが可読性に関連するテキストの言語的特徴を表現しているという仮説の予備的証拠を提供する。
論文 参考訳(メタデータ) (2020-05-30T22:14:46Z) - Translation Artifacts in Cross-lingual Transfer Learning [51.66536640084888]
機械翻訳は、既存の言語間モデルに顕著な影響を与える微妙なアーティファクトを導入することができることを示す。
自然言語の推論では、前提と仮説を独立に翻訳することで、それらの間の語彙的重複を減らすことができる。
また、XNLIでは、それぞれ4.3点と2.8点の翻訳とゼロショットのアプローチを改善している。
論文 参考訳(メタデータ) (2020-04-09T17:54:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。