論文の概要: Translation in the Wild
- arxiv url: http://arxiv.org/abs/2505.23548v1
- Date: Thu, 29 May 2025 15:26:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.938438
- Title: Translation in the Wild
- Title(参考訳): 野生の翻訳
- Authors: Yuri Balashov,
- Abstract要約: 大きな言語モデル(LLM)は翻訳に優れています。
しかし、専用ニューラルネットワーク翻訳モデルとは異なり、LLMは翻訳関連の目的についてトレーニングされていない。
私の作業仮説では、LLMの翻訳能力は2種類の事前学習データに起因している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large Language Models (LLMs) excel in translation among other things, demonstrating competitive performance for many language pairs in zero- and few-shot settings. But unlike dedicated neural machine translation models, LLMs are not trained on any translation-related objective. What explains their remarkable translation abilities? Are these abilities grounded in "incidental bilingualism" (Briakou et al. 2023) in training data? Does instruction tuning contribute to it? Are LLMs capable of aligning and leveraging semantically identical or similar monolingual contents from different corners of the internet that are unlikely to fit in a single context window? I offer some reflections on this topic, informed by recent studies and growing user experience. My working hypothesis is that LLMs' translation abilities originate in two different types of pre-training data that may be internalized by the models in different ways. I discuss the prospects for testing the "duality" hypothesis empirically and its implications for reconceptualizing translation, human and machine, in the age of deep learning.
- Abstract(参考訳): 大きな言語モデル(LLM)は翻訳に優れており、ゼロと数ショットの設定で多くの言語ペアの競合性能を示す。
しかし、専用ニューラルネットワーク翻訳モデルとは異なり、LLMは翻訳関連の目的についてトレーニングされていない。
その素晴らしい翻訳能力を説明するものは何だろうか?
これらの能力は「インシデントバイリンガルリズム」(Briakou et al 2023)に根ざされているか?
インストラクションチューニングはそれに寄与しますか?
LLMは、一つのコンテキストウィンドウに収まらない、インターネットのさまざまなコーナーから意味論的に同一または類似したモノリンガルコンテンツを調整し、活用することができるか?
このトピックについて、最近の研究やユーザエクスペリエンスの向上によって、いくつかのリフレクションを提供しています。
私の作業仮説では、LLMの翻訳能力は、異なる方法でモデルによって内部化される可能性のある2種類の事前学習データに由来する。
本稿では,「二重性」仮説を実証的に検証する可能性と,深層学習の時代における「人間と機械」の相補的翻訳の意義について論じる。
関連論文リスト
- Could We Have Had Better Multilingual LLMs If English Was Not the Central Language? [4.655168524016426]
大規模言語モデル(LLM)は、トレーニング対象の言語に対して強力な機械翻訳能力を示す。
我々の研究は、Llama2の翻訳能力について論じている。
実験の結果,7B Llama2モデルはこれまでに見たすべての言語に翻訳すると10 BLEU以上になることがわかった。
論文 参考訳(メタデータ) (2024-02-21T16:32:38Z) - Eliciting the Translation Ability of Large Language Models via Multilingual Finetuning with Translation Instructions [68.01449013641532]
大規模事前学習言語モデル(LLM)は多言語翻訳において強力な能力を示している。
本稿では,多言語事前学習言語モデルであるXGLM-7Bを微調整して,多言語翻訳を行う方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T12:00:24Z) - Chain-of-Dictionary Prompting Elicits Translation in Large Language Models [100.47154959254937]
大規模言語モデル(LLM)は多言語ニューラルマシン翻訳(MNMT)において驚くほど優れた性能を示した
入力単語のサブセットに対する多言語辞書の連鎖による事前知識でLLMを拡張して翻訳能力を引き出す新しい方法であるCoDを提案する。
論文 参考訳(メタデータ) (2023-05-11T05:19:47Z) - Event knowledge in large language models: the gap between the impossible
and the unlikely [46.540380831486125]
我々は,事前学習された大規模言語モデル (LLM) がイベント知識を持つことを示す。
彼らはほぼ常に、不可能な事象に対して高い確率を割り当てる。
しかし、おそらくは起こりそうもない出来事に対して、一貫性のない選好を示す。
論文 参考訳(メタデータ) (2022-12-02T23:43:18Z) - Translation Artifacts in Cross-lingual Transfer Learning [51.66536640084888]
機械翻訳は、既存の言語間モデルに顕著な影響を与える微妙なアーティファクトを導入することができることを示す。
自然言語の推論では、前提と仮説を独立に翻訳することで、それらの間の語彙的重複を減らすことができる。
また、XNLIでは、それぞれ4.3点と2.8点の翻訳とゼロショットのアプローチを改善している。
論文 参考訳(メタデータ) (2020-04-09T17:54:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。