論文の概要: Phrase translation using a bilingual dictionary and n-gram data: A case
study from Vietnamese to English
- arxiv url: http://arxiv.org/abs/2208.03018v1
- Date: Fri, 5 Aug 2022 07:16:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-08 12:32:13.988629
- Title: Phrase translation using a bilingual dictionary and n-gram data: A case
study from Vietnamese to English
- Title(参考訳): バイリンガル辞書とn-gramデータを用いたフレーズ翻訳:ベトナム語から英語への事例研究
- Authors: Khang Nhut Lam, Feras Al Tarouti and Jugal Kalita
- Abstract要約: 言語L1のフレーズを辞書ベースのアプローチで言語L2に翻訳する過去のアプローチでは、初期翻訳を再構築するために文法規則が必要である。
本稿では,辞書に存在しないL1句をL2に翻訳するために,文法規則を使わずに新しい手法を提案する。
- 参考スコア(独自算出の注目度): 2.363388546004777
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Past approaches to translate a phrase in a language L1 to a language L2 using
a dictionary-based approach require grammar rules to restructure initial
translations. This paper introduces a novel method without using any grammar
rules to translate a given phrase in L1, which does not exist in the
dictionary, to L2. We require at least one L1-L2 bilingual dictionary and
n-gram data in L2. The average manual evaluation score of our translations is
4.29/5.00, which implies very high quality.
- Abstract(参考訳): 言語L1のフレーズを辞書ベースのアプローチで言語L2に翻訳するには、初期翻訳を再構築する文法規則が必要である。
本稿では,辞書に存在しないL1句をL2に翻訳するために,文法規則を使わずに新しい手法を提案する。
少なくとも1つのL1-L2バイリンガル辞書とn-gramデータが必要である。
我々の翻訳の平均手動評価スコアは4.29/5.00であり、非常に高品質である。
関連論文リスト
- Are BabyLMs Second Language Learners? [48.85680614529188]
本稿では,BabyLM Challengeの2024年版に対する言語的動機づけのアプローチについて述べる。
第1言語学習(L1)パラダイムを追求するのではなく,第2言語(L2)学習の観点から,課題にアプローチする。
論文 参考訳(メタデータ) (2024-10-28T17:52:15Z) - Can LLMs Really Learn to Translate a Low-Resource Language from One Grammar Book? [6.905647501099997]
極低リソース(XLR)言語は、NLPモデルをトレーニングするためのかなりのコーパスを欠いている。
One Book からの機械翻訳では、長文 LLM を1つの文法書で促すことで、英語とカラマン語を翻訳できる。
本書の文法的説明や平行な例がXLR翻訳の学習に最も有効かどうかを検討する。
論文 参考訳(メタデータ) (2024-09-27T21:27:32Z) - Learning-From-Mistakes Prompting for Indigenous Language Translation [3.7790255156708397]
本稿では,低リソースの母国語翻訳を改善する手法を提案する。
我々のアプローチは、限られた数の並列翻訳例からなるデータストアの使用に基礎を置いています。
我々は、LLMをユニバーサルトランスレータとして使用するような設定において、LLMと文脈内学習技術のポテンシャルを利用する。
論文 参考訳(メタデータ) (2024-07-18T09:41:20Z) - Building Accurate Translation-Tailored LLMs with Language Aware Instruction Tuning [57.323716555996114]
オフターゲット翻訳は、特に低リソース言語では未解決の問題である。
最近の研究は、翻訳命令の機能を強調するために高度なプロンプト戦略を設計するか、LLMの文脈内学習能力を活用している。
本研究では,LLMの命令追従能力(特に翻訳方向)を向上させるために,2段階の微調整アルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-03-21T13:47:40Z) - Lost in Translation: A Study of Bugs Introduced by Large Language Models
while Translating Code [5.915447908295047]
コード翻訳における一般LLMとコードLLMの能力について,大規模な実証的研究を行った。
私たちの研究は、3つのベンチマークと2つの実世界のプロジェクトからの1,700のコードサンプルの翻訳に関するものです。
LLMの正しい翻訳は2.1%から47.3%であることがわかった。
論文 参考訳(メタデータ) (2023-08-06T13:33:13Z) - Translate to Disambiguate: Zero-shot Multilingual Word Sense
Disambiguation with Pretrained Language Models [67.19567060894563]
事前訓練された言語モデル(PLM)は、豊富な言語間知識を学習し、多様なタスクでうまく機能するように微調整することができる。
C-WLT(Contextual Word-Level Translation)を用いた言語間単語感覚の捉え方の検討を行った。
モデルのサイズが大きくなるにつれて、PLMはより言語間単語認識の知識をエンコードし、WLT性能を改善するためのコンテキストを良くする。
論文 参考訳(メタデータ) (2023-04-26T19:55:52Z) - Multilingual Machine Translation with Large Language Models: Empirical Results and Analysis [103.89753784762445]
大規模言語モデル(LLM)は多言語機械翻訳(MMT)の処理において顕著な可能性を示した。
本稿では, MMT における LLM の利点と課題を体系的に検討する。
また,ChatGPTとGPT-4を含む8つのLLMを徹底的に評価した。
論文 参考訳(メタデータ) (2023-04-10T15:51:30Z) - Data Augmentation for Sign Language Gloss Translation [115.13684506803529]
手話翻訳(SLT)は、しばしばビデオ-グロス認識とグロス-テキスト翻訳に分解される。
ここでは低リソースのニューラルネットワーク翻訳(NMT)問題として扱うグロス・トゥ・テキスト翻訳に焦点を当てる。
そこで得られた合成データの事前学習により、アメリカ手話(ASL)から英語、ドイツ語手話(DGS)からドイツ語への翻訳を、それぞれ3.14および2.20BLEUまで改善した。
論文 参考訳(メタデータ) (2021-05-16T16:37:36Z) - Injecting Word Information with Multi-Level Word Adapter for Chinese
Spoken Language Understanding [65.01421041485247]
我々は、単語情報を注入することで、中国語の音声理解(SLU)を改善する。
我々のモデルは有用な単語情報をキャプチャし、最先端の性能を達成することができる。
論文 参考訳(メタデータ) (2020-10-08T11:11:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。