論文の概要: LLMs for Translation: Historical, Low-Resourced Languages and Contemporary AI Models
- arxiv url: http://arxiv.org/abs/2503.11898v1
- Date: Fri, 14 Mar 2025 21:59:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:36:13.009034
- Title: LLMs for Translation: Historical, Low-Resourced Languages and Contemporary AI Models
- Title(参考訳): LLMs for Translation: 歴史的かつ低リソースの言語と現代AIモデル
- Authors: Merve Tekgurler,
- Abstract要約: 本稿は、ゲミニが18世紀のオスマン帝国の写本『Infidels: The Memoirs of Osman Agha of Timisoara』を翻訳した際の業績について考察する。
我々の分析によると、ジェミニの安全メカニズムは、原稿の14~23%を有害と判断し、未訳の通過をもたらすことがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Large Language Models (LLMs) have demonstrated remarkable adaptability in performing various tasks, including machine translation (MT), without explicit training. Models such as OpenAI's GPT-4 and Google's Gemini are frequently evaluated on translation benchmarks and utilized as translation tools due to their high performance. This paper examines Gemini's performance in translating an 18th-century Ottoman Turkish manuscript, Prisoner of the Infidels: The Memoirs of Osman Agha of Timisoara, into English. The manuscript recounts the experiences of Osman Agha, an Ottoman subject who spent 11 years as a prisoner of war in Austria, and includes his accounts of warfare and violence. Our analysis reveals that Gemini's safety mechanisms flagged between 14 and 23 percent of the manuscript as harmful, resulting in untranslated passages. These safety settings, while effective in mitigating potential harm, hinder the model's ability to provide complete and accurate translations of historical texts. Through real historical examples, this study highlights the inherent challenges and limitations of current LLM safety implementations in the handling of sensitive and context-rich materials. These real-world instances underscore potential failures of LLMs in contemporary translation scenarios, where accurate and comprehensive translations are crucial-for example, translating the accounts of modern victims of war for legal proceedings or humanitarian documentation.
- Abstract(参考訳): 大規模言語モデル(LLM)は、機械翻訳(MT)を含む様々なタスクを明示的な訓練なしで実行する際に顕著な適応性を示した。
OpenAIのGPT-4やGoogleのGeminiのようなモデルは、しばしば翻訳ベンチマークで評価され、高いパフォーマンスのために翻訳ツールとして利用される。
本稿は、18世紀のオスマン帝国の写本『Infidels: The Memoirs of Osman Agha of Timisoara』を英語に翻訳したゲミニのパフォーマンスについて考察する。
オスマン・アガ(オスマン・アガ、オスマン・アガ、オスマン・アガ、オスマン・アガ、オスマン・アガ、オスマン・アガ、オスマン・アガ、オスマン・アガ、オスマン・アガ、オスマン・アガ、オスマン・アガ、オスマン・アガ、オスマン・アガ、オスマン・アガ、オスマン・アガ)はオーストリアで11年間戦争捕虜として過ごした人物である。
我々の分析によると、ジェミニの安全メカニズムは、原稿の14~23%を有害と判断し、未訳の通過をもたらすことがわかった。
これらの安全設定は潜在的な害を軽減するのに有効であるが、モデルが歴史的テキストの完全かつ正確な翻訳を提供する能力を妨げる。
実例を通して, 本研究は, センシティブ・コンテキストに富む材料を扱う上での, 現在のLLM安全実装の課題と限界を強調した。
これらの現実世界の事例は、現代の翻訳シナリオにおけるLLMの潜在的な失敗を裏付けるものであり、正確な包括的な翻訳が重要であり、例えば、現代の戦争犠牲者の法的手続きや人道的な文書を翻訳する。
関連論文リスト
- Exploring Large Language Models for Translating Romanian Computational Problems into English [0.0]
本研究では,ロバストな大規模言語モデル(LLM)が,十分に構造化されたプロンプトを与えられた場合,あまり一般的でない言語を翻訳する際に,その性能を維持あるいは向上できることを示す。
OpenRoLLM, Llama 3.1 8B, Llama 3.2 3B, GPT-4o など, 複数の LLM の翻訳手法について検討した。
論文 参考訳(メタデータ) (2025-01-09T22:17:44Z) - How Good Are LLMs for Literary Translation, Really? Literary Translation Evaluation with Humans and LLMs [23.247387152595067]
LITEVAL-CORPUSは、検証された人間の翻訳と9つの文学機械翻訳システムからの出力を含む並列コーパスである。
複雑度の異なる評価手法の整合性と妥当性について検討する。
総合評価の結果,人文翻訳はLLM翻訳より一貫して優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-10-24T12:48:03Z) - TasTe: Teaching Large Language Models to Translate through Self-Reflection [82.83958470745381]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて顕著な性能を示した。
本稿では,自己回帰を通した翻訳を行うTasTeフレームワークを提案する。
WMT22ベンチマークにおける4つの言語方向の評価結果から,既存の手法と比較して,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-12T17:21:21Z) - Understanding and Addressing the Under-Translation Problem from the Perspective of Decoding Objective [72.83966378613238]
最新のニューラル・マシン・トランスレーション(NMT)システムでは、アンダー・トランスレーションとオーバー・トランスレーションの2つの課題が残っている。
我々は,NMTにおけるアンダートランスレーションの根本原因を詳細に分析し,デコード目的の観点から解説する。
本研究は,低翻訳の検知器としてEOS(End Of Sentence)予測の信頼性を活用し,低翻訳のリスクが高い候補を罰する信頼性に基づくペナルティを強化することを提案する。
論文 参考訳(メタデータ) (2024-05-29T09:25:49Z) - (Perhaps) Beyond Human Translation: Harnessing Multi-Agent Collaboration for Translating Ultra-Long Literary Texts [52.18246881218829]
本稿では,大言語モデル(LLM)をベースとした多エージェントフレームワークを,TransAgentsという企業として実装した。
本システムの有効性を評価するため,モノリンガル・ヒューマン・プライス(MHP)とバイリンガル・LLM・プライス(BLP)の2つの革新的な評価戦略を提案する。
論文 参考訳(メタデータ) (2024-05-20T05:55:08Z) - Building Accurate Translation-Tailored LLMs with Language Aware Instruction Tuning [57.323716555996114]
オフターゲット翻訳は、特に低リソース言語では未解決の問題である。
最近の研究は、翻訳命令の機能を強調するために高度なプロンプト戦略を設計するか、LLMの文脈内学習能力を活用している。
本研究では,LLMの命令追従能力(特に翻訳方向)を向上させるために,2段階の微調整アルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-03-21T13:47:40Z) - Contextual Refinement of Translations: Large Language Models for Sentence and Document-Level Post-Editing [12.843274390224853]
大規模言語モデル(LLM)は、様々な自然言語処理タスクでかなりの成功を収めている。
ニューラルネットワーク翻訳における最先端性能は,まだ達成できていない。
直接翻訳者ではなく,自動編集者 (APE) としてLLMを適用することを提案する。
論文 参考訳(メタデータ) (2023-10-23T12:22:15Z) - Shadow Alignment: The Ease of Subverting Safely-Aligned Language Models [102.63973600144308]
オープンソースの大規模言語モデルは、有害なコンテンツを生成するために容易に変換できる。
5つの異なる組織がリリースした8つのモデルに対する実験は、シャドーアライメントアタックの有効性を実証している。
この研究は、悪意のある攻撃者に対するオープンソースのLLMの安全性を見直し、強化するための集団的な取り組みの発端となる。
論文 参考訳(メタデータ) (2023-10-04T16:39:31Z) - Exploring Human-Like Translation Strategy with Large Language Models [93.49333173279508]
大規模言語モデル(LLM)は、一般的なシナリオにおいて印象的な機能を示している。
本研究は,マルチアスペクト・プロンプトと選択のためのMAPSフレームワークを提案する。
品質推定に基づく選択機構を用いて,ノイズや不ヘッピーな知識を抽出する。
論文 参考訳(メタデータ) (2023-05-06T19:03:12Z) - Large language models effectively leverage document-level context for
literary translation, but critical errors persist [32.54546652197316]
大規模言語モデル(LLM)は、幅広い文レベルの翻訳データセット上での最先端技術と競合する。
我々は,Gpt-3.5 (text-davinci-003) LLM) を用いて文節全体を翻訳し,高品質な翻訳を行うという厳密な評価を通して示す。
論文 参考訳(メタデータ) (2023-04-06T17:27:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。