論文の概要: New Trends in Machine Translation using Large Language Models: Case
Examples with ChatGPT
- arxiv url: http://arxiv.org/abs/2305.01181v1
- Date: Tue, 2 May 2023 03:27:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-03 15:22:35.831882
- Title: New Trends in Machine Translation using Large Language Models: Case
Examples with ChatGPT
- Title(参考訳): 大規模言語モデルを用いた機械翻訳の新動向:ChatGPTを例に
- Authors: Chenyang Lyu, Jitao Xu, Longyue Wang
- Abstract要約: 機械翻訳(MT)は近年,ディープラーニングを用いて大きな進歩を遂げている。
本稿では,大規模言語モデル(LLM)を用いたMTの興味深い方向性を提案する。
- 参考スコア(独自算出の注目度): 22.10980678145209
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine Translation (MT) has made significant progress in recent years using
deep learning, especially after the emergence of large language models (LLMs)
such as GPT-3 and ChatGPT. This brings new challenges and opportunities for MT
using LLMs. In this paper, we brainstorm some interesting directions for MT
using LLMs, including stylized MT, interactive MT, and Translation Memory-based
MT, as well as a new evaluation paradigm using LLMs. We also discuss the
privacy concerns in MT using LLMs and a basic privacy-preserving method to
mitigate such risks. To illustrate the potential of our proposed directions, we
present several examples for the new directions mentioned above, demonstrating
the feasibility of the proposed directions and highlight the opportunities and
challenges for future research in MT using LLMs.
- Abstract(参考訳): 機械翻訳(MT)は近年,特にGPT-3やChatGPTといった大規模言語モデル(LLM)が出現して以来,大きな進歩を遂げている。
これにより、LLMを使用したMTの新たな課題と機会が生まれます。
本稿では,LLMを用いたMTのスタイリング,インタラクティブMT,Translation Memory-based MT,LLMを用いた新たな評価パラダイムなど,MTの興味深い方向性について検討する。
また,LSMを用いたMTのプライバシー問題や,そのようなリスクを軽減するための基本的なプライバシー保護手法についても論じる。
提案する方向の可能性を示すために,先述の新たな方向の例をいくつか紹介し,提案方向の実現可能性を示し,llmを用いた今後のmt研究の機会と課題を強調する。
関連論文リスト
- Refining Translations with LLMs: A Constraint-Aware Iterative Prompting Approach [7.5069214839655345]
大言語モデル(LLM)は機械翻訳(MT)において顕著な熟練性を示している
本稿では,意味的正確性に不可欠なキーワードを優先することで,翻訳忠実度を高める多段階のプロンプトチェーンを提案する。
FLORES-200およびWMTデータセットのベースモデルとしてLlamaとQwenを使用した実験は、ベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-11-13T05:40:24Z) - Leveraging LLMs for MT in Crisis Scenarios: a blueprint for low-resource languages [2.648836772989769]
堅牢で適応可能な機械翻訳(MT)システムの必要性は、これまで以上に迫っている。
本研究では,Large Language Models (LLMs) とMultilingual LLMs (MLLMs) を利用して,このようなシナリオにおけるMT機能の向上を図る。
本研究は,LLMの最先端機能と微調整技術とコミュニティ主導型コーパス開発戦略を組み合わせた新しいアプローチを概説する。
論文 参考訳(メタデータ) (2024-10-31T12:52:26Z) - Quality or Quantity? On Data Scale and Diversity in Adapting Large Language Models for Low-Resource Translation [62.202893186343935]
低リソース言語に大規模言語モデルを適用するのに何が必要かについて検討する。
我々は、事前トレーニングとスーパーバイザードファインチューニング(SFT)の間に並列データが重要であることを示す。
2つの低リソース言語群にまたがる3つの LLM 実験により,本研究の一般化可能性を示す一貫した傾向が示された。
論文 参考訳(メタデータ) (2024-08-23T00:59:38Z) - MT-PATCHER: Selective and Extendable Knowledge Distillation from Large Language Models for Machine Translation [61.65537912700187]
機械翻訳(MT)分野における言語モデル(LLM)の強みを実証した。
我々は,LLMから既存のMTモデルに選択的かつ包括的かつ積極的に知識を伝達するMT-Patcherというフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-14T16:07:39Z) - Fine-tuning Large Language Models for Domain-specific Machine
Translation [8.439661191792897]
大規模言語モデル(LLM)は機械翻訳(MT)において大きな進歩を遂げた。
しかし、ドメイン特異的MTのポテンシャルはいまだ未解明のままである。
本稿では,LlamaIT と呼ばれる,ドメイン固有の MT タスクのための汎用 LLM を効果的かつ効率的に微調整する,プロンプト指向の微調整手法を提案する。
論文 参考訳(メタデータ) (2024-02-23T02:24:15Z) - Rethinking Interpretability in the Era of Large Language Models [76.1947554386879]
大規模言語モデル(LLM)は、幅広いタスクにまたがる顕著な機能を示している。
自然言語で説明できる能力により、LLMは人間に与えられるパターンのスケールと複雑さを拡大することができる。
これらの新しい機能は、幻覚的な説明や膨大な計算コストなど、新しい課題を提起する。
論文 参考訳(メタデータ) (2024-01-30T17:38:54Z) - Improving Machine Translation with Large Language Models: A Preliminary Study with Cooperative Decoding [73.32763904267186]
大きな言語モデル(LLM)は、優れた翻訳品質を達成する可能性を示す。
我々は,NMTシステムを事前翻訳モデルとして扱うCooperative Decoding(CoDec)と,MT指向LLMを補足解として提案する。
論文 参考訳(メタデータ) (2023-11-06T03:41:57Z) - Document-Level Machine Translation with Large Language Models [91.03359121149595]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクに対して、一貫性、凝集性、関連性、流動性のある回答を生成することができる。
本稿では,LLMの談話モデルにおける能力について詳細に評価する。
論文 参考訳(メタデータ) (2023-04-05T03:49:06Z) - Prompting PaLM for Translation: Assessing Strategies and Performance [16.73524055296411]
経路言語モデル (PaLM) は, 同様に訓練されたLLMの中で最強の機械翻訳(MT)性能を示した。
我々は、PaLMのMT機能に関する以前の評価を、より最近のテストセット、現代のMTメトリクス、そして人間の評価で再検討し、その性能は、印象的ではあるが、最先端の監視システムよりも遅れていることを発見した。
論文 参考訳(メタデータ) (2022-11-16T18:42:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。