論文の概要: Phrase translation using a bilingual dictionary and n-gram data: A case
study from Vietnamese to English
- arxiv url: http://arxiv.org/abs/2208.03018v1
- Date: Fri, 5 Aug 2022 07:16:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-08 12:32:13.988629
- Title: Phrase translation using a bilingual dictionary and n-gram data: A case
study from Vietnamese to English
- Title(参考訳): バイリンガル辞書とn-gramデータを用いたフレーズ翻訳:ベトナム語から英語への事例研究
- Authors: Khang Nhut Lam, Feras Al Tarouti and Jugal Kalita
- Abstract要約: 言語L1のフレーズを辞書ベースのアプローチで言語L2に翻訳する過去のアプローチでは、初期翻訳を再構築するために文法規則が必要である。
本稿では,辞書に存在しないL1句をL2に翻訳するために,文法規則を使わずに新しい手法を提案する。
- 参考スコア(独自算出の注目度): 2.363388546004777
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Past approaches to translate a phrase in a language L1 to a language L2 using
a dictionary-based approach require grammar rules to restructure initial
translations. This paper introduces a novel method without using any grammar
rules to translate a given phrase in L1, which does not exist in the
dictionary, to L2. We require at least one L1-L2 bilingual dictionary and
n-gram data in L2. The average manual evaluation score of our translations is
4.29/5.00, which implies very high quality.
- Abstract(参考訳): 言語L1のフレーズを辞書ベースのアプローチで言語L2に翻訳するには、初期翻訳を再構築する文法規則が必要である。
本稿では,辞書に存在しないL1句をL2に翻訳するために,文法規則を使わずに新しい手法を提案する。
少なくとも1つのL1-L2バイリンガル辞書とn-gramデータが必要である。
我々の翻訳の平均手動評価スコアは4.29/5.00であり、非常に高品質である。
関連論文リスト
- Adapting Large Language Models for Document-Level Machine Translation [49.74879186939818]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて大きな進歩を遂げている。
近年の研究では、中程度のLLMはタスク固有の微調整の後、より大きなLLMよりも優れていることが示されている。
論文 参考訳(メタデータ) (2024-01-12T09:29:13Z) - Contextual Label Projection for Cross-Lingual Structure Extraction [111.10392133430452]
CLAPを導入し、まずテキストを対象言語に翻訳し、翻訳したテキストを文脈としてラベルに文脈翻訳を行う。
その結果,中国語とアラビア語のACE05データセットの他の手法に比べてCLAPは2-2.5F1スコア向上した。
論文 参考訳(メタデータ) (2023-09-16T10:27:28Z) - Lost in Translation: A Study of Bugs Introduced by Large Language Models
while Translating Code [5.915447908295047]
コード翻訳における一般LLMとコードLLMの能力について,大規模な実証的研究を行った。
私たちの研究は、3つのベンチマークと2つの実世界のプロジェクトからの1,700のコードサンプルの翻訳に関するものです。
LLMの正しい翻訳は2.1%から47.3%であることがわかった。
論文 参考訳(メタデータ) (2023-08-06T13:33:13Z) - BiPhone: Modeling Inter Language Phonetic Influences in Text [12.405907573933378]
テクノロジーの非対称性のため、リテラシーの低い言語でWebを使わざるを得ない人は多い。
そのようなユーザから第2言語(L2)で書かれたテキストには、ネイティブ言語(L1)の影響を受けている大量のエラーが含まれていることが多い。
本稿ではL1とL2のペアに対して音素の混同(L2ではL1話者が強調される可能性が高い)を抽出する手法を提案する。
これらの混乱を生成モデル (Bi-Phone) にプラグインし、合成により劣化したL2テキストを生成する。
論文 参考訳(メタデータ) (2023-07-06T22:31:55Z) - Translate to Disambiguate: Zero-shot Multilingual Word Sense
Disambiguation with Pretrained Language Models [67.19567060894563]
事前訓練された言語モデル(PLM)は、豊富な言語間知識を学習し、多様なタスクでうまく機能するように微調整することができる。
C-WLT(Contextual Word-Level Translation)を用いた言語間単語感覚の捉え方の検討を行った。
モデルのサイズが大きくなるにつれて、PLMはより言語間単語認識の知識をエンコードし、WLT性能を改善するためのコンテキストを良くする。
論文 参考訳(メタデータ) (2023-04-26T19:55:52Z) - Multilingual Machine Translation with Large Language Models: Empirical
Results and Analysis [108.37242622164709]
大規模言語モデル(LLM)は多言語機械翻訳(MMT)の処理において顕著な可能性を示した。
本稿では, MMT における LLM の利点と課題を体系的に検討する。
また,ChatGPTとGPT-4を含む8つのLLMを徹底的に評価した。
論文 参考訳(メタデータ) (2023-04-10T15:51:30Z) - Data Augmentation for Sign Language Gloss Translation [115.13684506803529]
手話翻訳(SLT)は、しばしばビデオ-グロス認識とグロス-テキスト翻訳に分解される。
ここでは低リソースのニューラルネットワーク翻訳(NMT)問題として扱うグロス・トゥ・テキスト翻訳に焦点を当てる。
そこで得られた合成データの事前学習により、アメリカ手話(ASL)から英語、ドイツ語手話(DGS)からドイツ語への翻訳を、それぞれ3.14および2.20BLEUまで改善した。
論文 参考訳(メタデータ) (2021-05-16T16:37:36Z) - Injecting Word Information with Multi-Level Word Adapter for Chinese
Spoken Language Understanding [65.01421041485247]
我々は、単語情報を注入することで、中国語の音声理解(SLU)を改善する。
我々のモデルは有用な単語情報をキャプチャし、最先端の性能を達成することができる。
論文 参考訳(メタデータ) (2020-10-08T11:11:05Z) - An exploratory study of L1-specific non-words [0.0]
異なる言語モデルを持つ非単語の再ランク付けは、スウェーデン性に知覚的な違いをもたらす」。
実験結果から,L1の非単語はスウェーデン語の非単語に次いで2番目に遅く処理されていることが示唆された。
論文 参考訳(メタデータ) (2020-09-02T15:18:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。