論文の概要: Prompting LLMs: Length Control for Isometric Machine Translation
- arxiv url: http://arxiv.org/abs/2506.04855v1
- Date: Thu, 05 Jun 2025 10:24:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.658795
- Title: Prompting LLMs: Length Control for Isometric Machine Translation
- Title(参考訳): プロンプティングLLM:等尺機械翻訳のための長さ制御
- Authors: Dávid Javorský, Ondřej Bojar, François Yvon,
- Abstract要約: 本稿では,異なるプロンプト戦略,いくつかの例のバリエーション,および実演選択が翻訳品質と長さ制御に与える影響について検討する。
提案手法では,提案する実演の特徴に則った指示文の表現が,出力長の制御において重要な役割を担っていることがわかった。
複数の出力を考慮すると、長さと品質の全体的なトレードオフが顕著に改善され、いくつかの言語ペアの最先端のパフォーマンスが得られる。
- 参考スコア(独自算出の注目度): 11.037522635949939
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study, we explore the effectiveness of isometric machine translation across multiple language pairs (En$\to$De, En$\to$Fr, and En$\to$Es) under the conditions of the IWSLT Isometric Shared Task 2022. Using eight open-source large language models (LLMs) of varying sizes, we investigate how different prompting strategies, varying numbers of few-shot examples, and demonstration selection influence translation quality and length control. We discover that the phrasing of instructions, when aligned with the properties of the provided demonstrations, plays a crucial role in controlling the output length. Our experiments show that LLMs tend to produce shorter translations only when presented with extreme examples, while isometric demonstrations often lead to the models disregarding length constraints. While few-shot prompting generally enhances translation quality, further improvements are marginal across 5, 10, and 20-shot settings. Finally, considering multiple outputs allows to notably improve overall tradeoff between the length and quality, yielding state-of-the-art performance for some language pairs.
- Abstract(参考訳): 本研究では,IWSLT等尺共有タスク2022の条件下で,複数言語対(En$\to$De,En$\to$Fr,En$\to$Es)における等尺機械翻訳の有効性を検討する。
様々なサイズのオープンソースの大言語モデル(LLM)を8種類使用し、異なるプロンプト戦略、いくつかの例のバリエーション、そして実演選択が翻訳品質と長さ制御に与える影響について検討する。
提案手法では,提案する実演の特徴に則った指示文の表現が,出力長の制御において重要な役割を担っていることがわかった。
実験の結果,LLMは極端な例で示される場合のみ短い翻訳を生成する傾向を示し,等尺的な実演は長さ制約を無視するモデルに繋がることがわかった。
ほとんどショットプロンプトは一般的に翻訳品質を高めるが、さらなる改善は5、10、20ショット設定に及ばない。
最後に、複数の出力を考慮すると、長さと品質の全体的なトレードオフが顕著に改善され、いくつかの言語ペアの最先端のパフォーマンスが得られる。
関連論文リスト
- Building Accurate Translation-Tailored LLMs with Language Aware Instruction Tuning [57.323716555996114]
オフターゲット翻訳は、特に低リソース言語では未解決の問題である。
最近の研究は、翻訳命令の機能を強調するために高度なプロンプト戦略を設計するか、LLMの文脈内学習能力を活用している。
本研究では,LLMの命令追従能力(特に翻訳方向)を向上させるために,2段階の微調整アルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-03-21T13:47:40Z) - Same Task, More Tokens: the Impact of Input Length on the Reasoning Performance of Large Language Models [48.35385912526338]
本稿では,入力長がLarge Language Models(LLMs)の能力に与える影響について検討する。
同一サンプルの複数バージョンを用いて入力長の影響を分離し,それぞれが異なる長さ,タイプ,位置のパディングで拡張した。
劣化傾向はデータセットのすべてのバージョンに現れるが、強度は異なる。
論文 参考訳(メタデータ) (2024-02-19T16:04:53Z) - Adapting Large Language Models for Document-Level Machine Translation [46.370862171452444]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクを大幅に進歩させた。
近年の研究では、中程度のLLMはタスク固有の微調整後、より大きなLLMよりも優れていることが示されている。
本研究では,特定の言語対に対する文書レベルの機械翻訳(DocMT)にLLMを適用することに焦点を当てた。
論文 参考訳(メタデータ) (2024-01-12T09:29:13Z) - Examining Scaling and Transfer of Language Model Architectures for
Machine Translation [51.69212730675345]
言語モデル(LM)は単一のレイヤのスタックで処理し、エンコーダ・デコーダモデル(EncDec)は入力と出力の処理に別々のレイヤスタックを使用する。
機械翻訳において、EncDecは長年好まれてきたアプローチであるが、LMの性能についての研究はほとんどない。
論文 参考訳(メタデータ) (2022-02-01T16:20:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。