論文の概要: Translation Word-Level Auto-Completion: What can we achieve out of the
box?
- arxiv url: http://arxiv.org/abs/2210.12802v1
- Date: Sun, 23 Oct 2022 17:58:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 17:55:10.938177
- Title: Translation Word-Level Auto-Completion: What can we achieve out of the
box?
- Title(参考訳): 翻訳語レベルオートコンプリート: ボックスから何が達成できるのか?
- Authors: Yasmin Moslem, Rejwanul Haque, Andy Way
- Abstract要約: 利用可能なライブラリから事前学習モデルとアウト・オブ・ザ・ボックス機能を使用することの可能性を検討する。
CTranslate2をベースにしたオープンソースのAPIを導入し、翻訳、自動提案、自動補完を提供します。
- 参考スコア(独自算出の注目度): 6.241494296494433
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Research on Machine Translation (MT) has achieved important breakthroughs in
several areas. While there is much more to be done in order to build on this
success, we believe that the language industry needs better ways to take full
advantage of current achievements. Due to a combination of factors, including
time, resources, and skills, businesses tend to apply pragmatism into their AI
workflows. Hence, they concentrate more on outcomes, e.g. delivery, shipping,
releases, and features, and adopt high-level working production solutions,
where possible. Among the features thought to be helpful for translators are
sentence-level and word-level translation auto-suggestion and auto-completion.
Suggesting alternatives can inspire translators and limit their need to refer
to external resources, which hopefully boosts their productivity. This work
describes our submissions to WMT's shared task on word-level auto-completion,
for the Chinese-to-English, English-to-Chinese, German-to-English, and
English-to-German language directions. We investigate the possibility of using
pre-trained models and out-of-the-box features from available libraries. We
employ random sampling to generate diverse alternatives, which reveals good
results. Furthermore, we introduce our open-source API, based on CTranslate2,
to serve translations, auto-suggestions, and auto-completions.
- Abstract(参考訳): 機械翻訳の研究(MT)は、いくつかの分野で重要なブレークスルーを達成した。
この成功を積み上げるためにやるべきことはたくさんありますが、私たちは言語産業が現在の成果をフル活用するためのより良い方法が必要だと考えています。
時間、リソース、スキルを含む要素の組み合わせにより、企業はAIワークフローに実用主義を適用する傾向がある。
したがって、成果、例えば納品、出荷、リリース、機能に集中し、可能であればハイレベルな運用ソリューションを採用する。
翻訳者に役立つと思われる機能には、文章レベルと単語レベルの自動提案と自動補完がある。
推奨する代替手段は、翻訳者に刺激を与え、外部リソースを参照する必要性を制限することができる。
本研究は,wmtの語レベルの自動補完に関する共通課題である,中国語-英語-中国語-ドイツ語-英語-ドイツ語-ドイツ語の指示に対する提案について述べる。
事前学習したモデルと利用可能なライブラリから使える機能を利用する可能性について検討する。
ランダムサンプリングを多種多様な代替物の生成に利用し,良好な結果を得る。
さらに,ctranslate2をベースとするオープンソースapiを導入し,翻訳,自動サジェスト,自動補完を提供する。
関連論文リスト
- Extracting and Transferring Abilities For Building Multi-lingual Ability-enhanced Large Language Models [104.96990850774566]
我々は,MAETと命名された多言語能力抽出と伝達手法を提案する。
我々のキーとなる考え方は、大きな言語モデルから言語に依存しない能力に関する重みを分解し抽出することである。
実験結果から,MAETは高度能力の抽出と伝達を効果的に行うことができ,トレーニングベースライン法よりも優れることがわかった。
論文 参考訳(メタデータ) (2024-10-10T11:23:18Z) - Thesis proposal: Are We Losing Textual Diversity to Natural Language Processing? [3.8073142980733]
ニューラルネットワーク翻訳で使用されるアルゴリズムは、ほとんどの入力タイプに有益であるが、非典型的テキストの処理に有害な帰納的バイアスを持つかどうかを問う。
我々は,NMTシステムがこのようなテキストの多様性を維持するのに苦戦しているかどうかを調べるために,一連の実験を行った。
我々の最終的な目標は、出力の統計特性の分布に一様性を課さない代替手段を開発することである。
論文 参考訳(メタデータ) (2024-09-15T01:06:07Z) - Machine Translation with Large Language Models: Prompt Engineering for
Persian, English, and Russian Directions [0.0]
生成型大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて、例外的な習熟性を示している。
我々は,ペルシャ語,英語,ロシア語の言語間組み合わせに着目した2つの普及促進手法とその組み合わせについて調査を行った。
論文 参考訳(メタデータ) (2024-01-16T15:16:34Z) - DIALIGHT: Lightweight Multilingual Development and Evaluation of
Task-Oriented Dialogue Systems with Large Language Models [76.79929883963275]
DIALIGHTは多言語タスク指向対話(ToD)システムの開発と評価のためのツールキットである。
ローカル発話レベルとグローバル対話レベルの両方において、人間のきめ細かい評価のためのセキュアでユーザフレンドリーなWebインターフェースを備えている。
評価の結果, PLMの微調整により精度とコヒーレンスが向上する一方, LLMベースのシステムは多様で類似した応答を生成するのに優れていた。
論文 参考訳(メタデータ) (2024-01-04T11:27:48Z) - Is Translation Helpful? An Empirical Analysis of Cross-Lingual Transfer
in Low-Resource Dialog Generation [21.973937517854935]
複数の言語で高品質なチャットボットを開発するためには、言語間移動が重要である。
本研究は,機械翻訳(MT)の活用に有用かどうかを考察する。
英語ダイアログコーパスを活用すれば、中国語の自然性、関連性、ドメイン間の移動性が向上することを示す実験結果が得られた。
論文 参考訳(メタデータ) (2023-05-21T15:07:04Z) - Exploring Human-Like Translation Strategy with Large Language Models [93.49333173279508]
大規模言語モデル(LLM)は、一般的なシナリオにおいて印象的な機能を示している。
本研究は,マルチアスペクト・プロンプトと選択のためのMAPSフレームワークを提案する。
品質推定に基づく選択機構を用いて,ノイズや不ヘッピーな知識を抽出する。
論文 参考訳(メタデータ) (2023-05-06T19:03:12Z) - Adaptive Machine Translation with Large Language Models [7.803471587734353]
実時間適応型機械翻訳を改善するために,テキスト内学習をいかに活用できるかを検討する。
英語-アラビア語(EN-AR)、英語-中国語(EN-ZH)、英語-フランス語(EN-FR)、英語-キニャルワンダ(EN-RW)、英語-スペイン語(EN-ES)の5つの多種多様な言語対の実験を行った。
論文 参考訳(メタデータ) (2023-01-30T21:17:15Z) - Improving Multilingual Neural Machine Translation System for Indic
Languages [0.0]
低リソース言語翻訳に関わる問題に対処する多言語ニューラルマシン翻訳(MNMT)システムを提案する。
提案モデルの実現には最先端のトランスフォーマーアーキテクチャを用いる。
大量のデータに対する試行は、従来のモデルよりもその優位性を明らかにしている。
論文 参考訳(メタデータ) (2022-09-27T09:51:56Z) - No Language Left Behind: Scaling Human-Centered Machine Translation [69.28110770760506]
低レベルの言語と高レベルの言語のパフォーマンスギャップを狭めるためのデータセットとモデルを作成します。
何千ものタスクをトレーニングしながらオーバーフィッティングに対処するために,複数のアーキテクチャとトレーニングの改善を提案する。
本モデルでは,従来の最先端技術と比較して,BLEUの44%の改善を実現している。
論文 参考訳(メタデータ) (2022-07-11T07:33:36Z) - Towards Best Practices for Training Multilingual Dense Retrieval Models [54.91016739123398]
我々は,このような設計を用いて,多種多様言語における単言語検索の課題に焦点をあてる。
本研究は多言語高密度検索モデルのトレーニングのための「ベストプラクティス」ガイドとして組織されている。
論文 参考訳(メタデータ) (2022-04-05T17:12:53Z) - Continual Mixed-Language Pre-Training for Extremely Low-Resource Neural
Machine Translation [53.22775597051498]
我々は,mbart を未熟な言語に効果的に適用するための,継続的な事前学習フレームワークを提案する。
その結果,mBARTベースラインの微調整性能を一貫して改善できることが示された。
私たちのアプローチは、両方の言語が元のmBARTの事前トレーニングで見られる翻訳ペアのパフォーマンスを高めます。
論文 参考訳(メタデータ) (2021-05-09T14:49:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。