論文の概要: Unlocking Latent Discourse Translation in LLMs Through Quality-Aware Decoding
- arxiv url: http://arxiv.org/abs/2510.06866v1
- Date: Wed, 08 Oct 2025 10:37:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.434453
- Title: Unlocking Latent Discourse Translation in LLMs Through Quality-Aware Decoding
- Title(参考訳): 品質認識復号化によるLCMの非ロック潜在談話翻訳
- Authors: Wafaa Mohammed, Vlad Niculae, Chrysoula Zerva,
- Abstract要約: 大規模言語モデル (LLM) は機械翻訳において強力な競争相手として出現している。
しかし、彼らは代名詞の分解や語彙の凝集といった言論現象を文書レベルで適切に扱うのに苦慮している。
この知識を効果的に抽出するために品質認識復号法(QAD)を提案する。
- 参考スコア(独自算出の注目度): 14.194775031266497
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have emerged as strong contenders in machine translation.Yet, they still struggle to adequately handle discourse phenomena, such as pronoun resolution and lexical cohesion at the document level. In this study, we thoroughly investigate the discourse phenomena performance of LLMs in context-aware translation. We demonstrate that discourse knowledge is encoded within LLMs and propose the use of quality-aware decoding (QAD) to effectively extract this knowledge, showcasing its superiority over other decoding approaches through comprehensive analysis. Furthermore, we illustrate that QAD enhances the semantic richness of translations and aligns them more closely with human preferences.
- Abstract(参考訳): 大規模言語モデル(LLM)は機械翻訳において強力な競争相手として現れており、代名詞分解や文書レベルでの語彙的凝集といった談話現象を適切に扱うのに苦慮している。
本研究では,文脈対応翻訳におけるLLMの談話現象性能について,徹底的に検討する。
本研究では,LLM内での会話知識の符号化を実証し,この知識を効果的に抽出するための品質認識復号法(QAD)を提案する。
さらに、QADは翻訳のセマンティック・リッチネスを高め、人間の好みとより密に一致させる。
関連論文リスト
- How LLMs Learn: Tracing Internal Representations with Sparse Autoencoders [30.36521888592164]
大規模言語モデル(LLM)は、目覚ましい多言語機能と幅広い知識を示している。
LLMの内部表現にエンコードされた情報が、トレーニングプロセス中にどのように進化するかを分析する。
論文 参考訳(メタデータ) (2025-03-09T02:13:44Z) - Toward Robust Hyper-Detailed Image Captioning: A Multiagent Approach and Dual Evaluation Metrics for Factuality and Coverage [50.84150600032693]
MLLM(Multimodal large language model)は、非常に詳細なキャプションを生成するのに優れるが、幻覚を引き起こすことが多い。
我々は,LLM-MLLM協調を利用して与えられたキャプションを補正するマルチエージェント手法を提案する。
提案手法は, キャプションの精度を向上し, GPT-4Vによるキャプションの精度を向上する。
論文 参考訳(メタデータ) (2024-12-20T01:37:22Z) - Refining Translations with LLMs: A Constraint-Aware Iterative Prompting Approach [7.5069214839655345]
大言語モデル(LLM)は機械翻訳(MT)において顕著な熟練性を示している
本稿では,意味的正確性に不可欠なキーワードを優先することで,翻訳忠実度を高める多段階のプロンプトチェーンを提案する。
FLORES-200およびWMTデータセットのベースモデルとしてLlamaとQwenを使用した実験は、ベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-11-13T05:40:24Z) - Context-Aware or Context-Insensitive? Assessing LLMs' Performance in Document-Level Translation [10.174848090916669]
大規模言語モデル(LLM)は、機械翻訳においてますます強力な競争相手となっている。
文章の外部からの文脈なしには、いくつかの単語を翻訳できない文書レベルの翻訳に焦点を当てる。
論文 参考訳(メタデータ) (2024-10-18T11:52:10Z) - Teaching Machines to Code: Smart Contract Translation with LLMs [4.780973517287942]
本稿では、2つの異なる大規模言語モデル(LLM)を統一されたフレームワーク内でシナジーを利用する先駆的なアプローチを提案する。
このフレームワークは、コーディング原則を把握し、コードから馴染みのない言語への変換にこの理解を適用するように設計されています。
本研究では,人間の学習過程を模倣するLLMの能力について検討し,Solidityで記述されたスマートコントラクトをMoveに変換する手法の詳細な評価を行った。
論文 参考訳(メタデータ) (2024-03-13T18:55:20Z) - Lost in the Source Language: How Large Language Models Evaluate the Quality of Machine Translation [64.5862977630713]
本研究では,機械翻訳評価タスクにおいて,Large Language Models (LLM) がソースデータと参照データをどのように活用するかを検討する。
参照情報が評価精度を大幅に向上させるのに対して,意外なことに,ソース情報は時として非生産的である。
論文 参考訳(メタデータ) (2024-01-12T13:23:21Z) - Exploring Human-Like Translation Strategy with Large Language Models [93.49333173279508]
大規模言語モデル(LLM)は、一般的なシナリオにおいて印象的な機能を示している。
本研究は,マルチアスペクト・プロンプトと選択のためのMAPSフレームワークを提案する。
品質推定に基づく選択機構を用いて,ノイズや不ヘッピーな知識を抽出する。
論文 参考訳(メタデータ) (2023-05-06T19:03:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。