論文の概要: Steering Large Language Models for Machine Translation Personalization
- arxiv url: http://arxiv.org/abs/2505.16612v2
- Date: Tue, 14 Oct 2025 08:28:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 16:45:44.346122
- Title: Steering Large Language Models for Machine Translation Personalization
- Title(参考訳): 機械翻訳パーソナライズのための大規模言語モデルのステアリング
- Authors: Daniel Scalena, Gabriele Sarti, Arianna Bisazza, Elisabetta Fersini, Malvina Nissim,
- Abstract要約: サンプルが少ない場合に自動的に生成された翻訳をパーソナライズするための様々な戦略を検討する。
スパース・オートエンコーダ (SAE) 潜入者による相対的ステアリングに着目し, パーソナライズ特性の同定を行った。
コントラスト型SAEステアリングは、堅牢なスタイル条件付けと翻訳品質をもたらし、推論時間の計算効率が向上することを示した。
- 参考スコア(独自算出の注目度): 20.181629685548454
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models have simplified the production of personalized translations reflecting predefined stylistic constraints. However, these systems still struggle when stylistic requirements are implicitly represented by a set of examples, such as texts produced by a specific human translator. In this work, we explore various strategies for personalizing automatically generated translations when few examples are available, with a focus on the challenging domain of literary translation. We begin by determining the feasibility of the task and how style information is encoded within model representations. Then, we evaluate various prompting strategies and inference-time interventions for steering model generations towards a personalized style, with a particular focus on contrastive steering with sparse autoencoder (SAE) latents to identify salient personalization properties. We demonstrate that contrastive SAE steering yields robust style conditioning and translation quality, resulting in higher inference-time computational efficiency than prompting approaches. We further examine the impact of steering on model activations, finding that layers encoding personalization properties are impacted similarly by prompting and SAE steering, suggesting a similar mechanism at play.
- Abstract(参考訳): 大規模言語モデルは、事前に定義されたスタイル制約を反映したパーソナライズされた翻訳の作成を単純化した。
しかしながら、これらのシステムは、特定の人間の翻訳者によって作成されたテキストのような一連の例によって、形式的な要求が暗黙的に表現される場合にも、いまだに苦労している。
本研究は,文語翻訳の課題に焦点をあて,サンプルが少ない場合に自動生成翻訳をパーソナライズするための様々な戦略を探求する。
まず、タスクの実現可能性と、モデル表現内でどのようにスタイル情報がエンコードされるかを決定する。
そこで,本研究では,スパルス・オートエンコーダ (SAE) 潜入子を用いたコントラスト的ステアリングに着目し,パーソナライズ特性の同定に向け,モデル世代をパーソナライズしたスタイルに向け,様々なプロンプト戦略と推論時間的介入を評価する。
コントラスト型SAEステアリングは, 頑健なスタイル条件付けと翻訳品質を実現し, 提案手法よりも推論時間の計算効率が高いことを示した。
さらに、モデル活性化に対するステアリングの影響について検討し、パーソナライズ特性をコードする層がプロンプトとSAEステアリングによって同様の影響を受けており、同様のメカニズムがプレイ時に提案されている。
関連論文リスト
- Improving Multilingual Language Models by Aligning Representations through Steering [14.358813505154316]
大規模言語モデル(LLMS)は、非英語トークンを層表現内で処理する。
単一のモデルレイヤをステアリングすることで、パフォーマンスが著しく向上することを示す。
教師付き微調整(textscsft)や人的フィードバックからの強化学習といった高度な技術が多言語能力をどのように改善するかを強調した。
論文 参考訳(メタデータ) (2025-05-19T00:14:43Z) - Interpretable Face Anti-Spoofing: Enhancing Generalization with Multimodal Large Language Models [58.936893810674896]
顔認識システムのセキュリティと信頼性を確保するためには,FAS(Face Anti-Spoofing)が不可欠である。
I-FAS(Interpretable Face Anti-Spoofing)と呼ばれるFASのためのマルチモーダルな大規模言語モデルフレームワークを提案する。
本稿では,FAS画像の高品質なキャプションを生成するために,Spof-Aware Captioning and Filtering(SCF)戦略を提案する。
論文 参考訳(メタデータ) (2025-01-03T09:25:04Z) - Paraphrase-Aligned Machine Translation [7.258916315600866]
大規模言語モデル(LLM)は機械翻訳において重要な機能を示している。
本稿では,LLMを微調整して文を言い換える手法であるParaAlign Translatorを提案する。
実験結果から,LLaMA-3-8Bモデルの性能は資源豊富な場合と低リソースの場合の両方で向上することが示された。
論文 参考訳(メタデータ) (2024-12-08T12:17:26Z) - Towards Visual Text Design Transfer Across Languages [49.78504488452978]
マルチモーダル・スタイル翻訳(MuST-Bench)の新たな課題について紹介する。
MuST-Benchは、視覚テキスト生成モデルが様々な書き込みシステム間で翻訳を行う能力を評価するために設計されたベンチマークである。
そこで我々は,スタイル記述の必要性を解消する多モーダルなスタイル翻訳フレームワークであるSIGILを紹介した。
論文 参考訳(メタデータ) (2024-10-24T15:15:01Z) - SignAttention: On the Interpretability of Transformer Models for Sign Language Translation [2.079808290618441]
本稿では,トランスフォーマーを用いた手話翻訳モデルの最初の包括的解釈可能性解析について述べる。
モデル内の注意機構について検討し,視覚入力を逐次グルースで処理・調整する方法について考察する。
この研究はSLTモデルのより深い理解に寄与し、より透明で信頼性の高い翻訳システムを開発するための道を開いた。
論文 参考訳(メタデータ) (2024-10-18T14:38:37Z) - Multi-modal Instruction Tuned LLMs with Fine-grained Visual Perception [63.03288425612792]
マルチモーダル参照から画素単位のオブジェクト認識と自然言語記述を生成できる汎用MLLMモデルであるbfAnyRefを提案する。
本モデルでは,領域レベルの参照表現生成とセグメンテーションの多様さを含む,複数のベンチマークにおける最先端結果を実現する。
論文 参考訳(メタデータ) (2024-03-05T13:45:46Z) - Towards Effective Disambiguation for Machine Translation with Large
Language Models [65.80775710657672]
我々は「あいまいな文」を翻訳する大規模言語モデルの能力について研究する。
実験の結果,提案手法はDeepLやNLLBといった最先端システムと5つの言語方向のうち4つで一致し,性能を向上できることがわかった。
論文 参考訳(メタデータ) (2023-09-20T22:22:52Z) - Reference-less Analysis of Context Specificity in Translation with
Personalised Language Models [3.527589066359829]
本研究は、リッチキャラクタとフィルムアノテーションがいかにパーソナライズ言語モデル(LM)に活用できるかを考察する。
非文脈モデルと比較して、難易度を最大6.5%削減するために、リッチな文脈情報を活用するLMを構築している。
我々の領域における専門翻訳の文脈特化度は、文脈機械翻訳モデルによりよりよく保存できることを示す。
論文 参考訳(メタデータ) (2023-03-29T12:19:23Z) - Building Multilingual Machine Translation Systems That Serve Arbitrary
X-Y Translations [75.73028056136778]
任意のX-Y翻訳方向に対応するMNMTシステムを実際に構築する方法を示す。
また,本提案手法を,実用的な展開シナリオに対応するため,極めて大規模なデータ設定で検討した。
論文 参考訳(メタデータ) (2022-06-30T02:18:15Z) - Examining Scaling and Transfer of Language Model Architectures for
Machine Translation [51.69212730675345]
言語モデル(LM)は単一のレイヤのスタックで処理し、エンコーダ・デコーダモデル(EncDec)は入力と出力の処理に別々のレイヤスタックを使用する。
機械翻訳において、EncDecは長年好まれてきたアプローチであるが、LMの性能についての研究はほとんどない。
論文 参考訳(メタデータ) (2022-02-01T16:20:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。