論文の概要: Part of Speech and Universal Dependency effects on English Arabic
Machine Translation
- arxiv url: http://arxiv.org/abs/2106.00745v1
- Date: Tue, 1 Jun 2021 19:48:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-05 10:06:06.607400
- Title: Part of Speech and Universal Dependency effects on English Arabic
Machine Translation
- Title(参考訳): 英語アラビア語機械翻訳における音声と普遍的依存の影響
- Authors: Omri Abend, Leshem Choshen, Dmitry Nikolaev, Ofek Rafaeli
- Abstract要約: 本稿では、英語とアラビア語間の構文現象に基づく機械翻訳モデルの評価手法について詳述する。
それらを容易かつ多様に評価する方法を見つけることは、それらを改善するためのタスクに大いに役立ちます。
- 参考スコア(独自算出の注目度): 32.39089209073739
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: In this research paper, I will elaborate on a method to evaluate machine
translation models based on their performance on underlying syntactical
phenomena between English and Arabic languages. This method is especially
important as such "neural" and "machine learning" are hard to fine-tune and
change. Thus, finding a way to evaluate them easily and diversely would greatly
help the task of bettering them.
- Abstract(参考訳): 本稿では,英語とアラビア語の文法的現象を基礎とした機械翻訳モデルの評価手法について述べる。
このような「神経」や「機械学習」は微調整や変化が難しいため、この方法は特に重要である。
したがって、それらを容易かつ多様に評価する方法を見つけることは、それらを改善するタスクに大いに役立ちます。
関連論文リスト
- Roles of Scaling and Instruction Tuning in Language Perception: Model
vs. Human Attention [58.817405319722596]
本研究は,複数の大規模言語モデル (LLM) を異なる大きさで自己意識的に比較し,言語知覚に対するスケーリングと指導指導の効果を評価する。
その結果,スケーリングは人間の類似性を向上し,簡単なパターン依存を減らし,効果的な注意力を高める一方で,命令チューニングは行わないことがわかった。
また、現在のLLMは、注目されているネイティブスピーカーよりも、常に非ネイティブに近づき、全てのモデルの準最適言語知覚が示唆されている。
論文 参考訳(メタデータ) (2023-10-29T17:16:40Z) - The Best of Both Worlds: Combining Human and Machine Translations for
Multilingual Semantic Parsing with Active Learning [50.320178219081484]
人文翻訳と機械翻訳の両方の長所を生かした能動的学習手法を提案する。
理想的な発話選択は、翻訳されたデータの誤りとバイアスを著しく低減することができる。
論文 参考訳(メタデータ) (2023-05-22T05:57:47Z) - Beyond Contrastive Learning: A Variational Generative Model for
Multilingual Retrieval [109.62363167257664]
本稿では,多言語テキスト埋め込み学習のための生成モデルを提案する。
我々のモデルは、$N$言語で並列データを操作する。
本手法は, 意味的類似性, ビットクストマイニング, 言語間質問検索などを含む一連のタスクに対して評価を行う。
論文 参考訳(メタデータ) (2022-12-21T02:41:40Z) - Unravelling Interlanguage Facts via Explainable Machine Learning [10.71581852108984]
我々は、説明可能な機械学習アルゴリズムによって訓練されたNLI分類器の内部に焦点をあてる。
我々は、この視点を用いて、NLIと相補的なタスクの両方に対処し、テキストがネイティブまたは非ネイティブ話者によって書かれたかどうかを推測する。
話者のL1を最も示唆する2つの課題を解くのに最も有効な言語特性について検討する。
論文 参考訳(メタデータ) (2022-08-02T14:05:15Z) - How Robust is Neural Machine Translation to Language Imbalance in
Multilingual Tokenizer Training? [86.48323488619629]
トークン化学習コーパスにおいて,言語間でのデータ比が変化するにつれて,翻訳性能がどう変化するかを分析する。
言語が均等にサンプリングされる場合、比較的優れたパフォーマンスが観察されることが多いが、下流のパフォーマンスは、通常予想していたよりも、言語の不均衡に対して堅牢である。
論文 参考訳(メタデータ) (2022-04-29T17:50:36Z) - Negation Handling in Machine Learning-Based Sentiment Classification for
Colloquial Arabic [0.0]
アラビア語の感情分析における否定の役割は、特に口語アラビア語について限定的に研究されている。
そこで本研究では,多くの否定事例からルールを導出する簡単なルールベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-07-24T13:12:37Z) - Improving Cross-Lingual Reading Comprehension with Self-Training [62.73937175625953]
現在の最新モデルは、いくつかのベンチマークで人間のパフォーマンスを上回っています。
前作では、ゼロショットのクロスリンガル読解のための事前訓練された多言語モデルの能力を明らかにしている。
本稿では,ラベルのないデータを利用して性能を向上する。
論文 参考訳(メタデータ) (2021-05-08T08:04:30Z) - Learning Feature Weights using Reward Modeling for Denoising Parallel
Corpora [36.292020779233056]
この研究は、複数の文レベルの特徴の重みを学習する代替アプローチを提示する。
この手法をエストニア語英語のパラクローリングコーパスを用いたニューラル機械翻訳(NMT)システムの構築に適用する。
本手法の異なる種類の雑音に対する感度を分析し,学習重み付けが他の言語対に一般化するかどうかを検討する。
論文 参考訳(メタデータ) (2021-03-11T21:45:45Z) - A Survey of Orthographic Information in Machine Translation [1.2124289787900182]
我々は, アンダーリソース言語における機械翻訳を改善するために, 正書法情報をどのように利用できるかを示す。
本稿では,機械翻訳のさまざまなタイプについて論じるとともに,正書法と機械翻訳手法の整合性を示す最近の傾向を示す。
論文 参考訳(メタデータ) (2020-08-04T07:59:02Z) - Arabic Offensive Language Detection Using Machine Learning and Ensemble
Machine Learning Approaches [0.0]
この研究は、単一の学習者機械学習アプローチに対してアンサンブル機械学習アプローチを適用することに対する大きな影響を示している。
訓練されたアンサンブル機械学習分類器のうち、バッグングは、F1スコアが88%の攻撃的言語検出において、最高のパフォーマンスを発揮する。
論文 参考訳(メタデータ) (2020-05-16T06:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。