論文の概要: Steering Large Language Models for Machine Translation Personalization
- arxiv url: http://arxiv.org/abs/2505.16612v1
- Date: Thu, 22 May 2025 12:47:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.288877
- Title: Steering Large Language Models for Machine Translation Personalization
- Title(参考訳): 機械翻訳パーソナライズのための大規模言語モデルのステアリング
- Authors: Daniel Scalena, Gabriele Sarti, Arianna Bisazza, Elisabetta Fersini, Malvina Nissim,
- Abstract要約: 大規模言語モデル(LLM)に基づく高品質機械翻訳システムは、パーソナライズされた翻訳の作成を単純化した。
低リソース環境下でLLM生成翻訳をパーソナライズするための様々な戦略について検討する。
本稿では,スパースオートエンコーダから抽出した潜在概念を利用して,パーソナライズ特性を同定する手法を提案する。
- 参考スコア(独自算出の注目度): 14.548749578953585
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-quality machine translation systems based on large language models (LLMs) have simplified the production of personalized translations reflecting specific stylistic constraints. However, these systems still struggle in settings where stylistic requirements are less explicit and might be harder to convey via prompting. We explore various strategies for personalizing LLM-generated translations in low-resource settings, focusing on the challenging literary translation domain. We explore prompting strategies and inference-time interventions for steering model generations towards a personalized style, and propose a contrastive framework exploiting latent concepts extracted from sparse autoencoders to identify salient personalization properties. Our results show that steering achieves strong personalization while preserving translation quality. We further examine the impact of steering on LLM representations, finding model layers with a relevant impact for personalization are impacted similarly by multi-shot prompting and our steering method, suggesting similar mechanism at play.
- Abstract(参考訳): 大規模言語モデル(LLM)に基づく高品質機械翻訳システムは、特定のスタイル制約を反映したパーソナライズされた翻訳の作成を単純化した。
しかし、これらのシステムは、スタイリスティックな要求が明確でなく、プロンプトによって伝達するのが困難であるような設定では依然として苦戦している。
低リソース環境下でのLLM生成翻訳をパーソナライズするための様々な戦略について検討する。
モデル世代をパーソナライズする上での戦略と推論時間的介入について検討し、スパースオートエンコーダから抽出した潜在概念を活かして、健全なパーソナライズ特性を識別するコントラスト的枠組みを提案する。
以上の結果から, ステアリングは翻訳品質を維持しながら, 強いパーソナライゼーションを達成できることが示唆された。
さらに, LLM表現に対するステアリングの影響について検討し, パーソナライズに関係のあるモデル層が, マルチショットプロンプトやステアリング手法によって影響を受け, プレイ時の同様の機構が示唆された。
関連論文リスト
- Improving Multilingual Language Models by Aligning Representations through Steering [14.358813505154316]
大規模言語モデル(LLMS)は、非英語トークンを層表現内で処理する。
単一のモデルレイヤをステアリングすることで、パフォーマンスが著しく向上することを示す。
教師付き微調整(textscsft)や人的フィードバックからの強化学習といった高度な技術が多言語能力をどのように改善するかを強調した。
論文 参考訳(メタデータ) (2025-05-19T00:14:43Z) - Interpretable Face Anti-Spoofing: Enhancing Generalization with Multimodal Large Language Models [58.936893810674896]
顔認識システムのセキュリティと信頼性を確保するためには,FAS(Face Anti-Spoofing)が不可欠である。
I-FAS(Interpretable Face Anti-Spoofing)と呼ばれるFASのためのマルチモーダルな大規模言語モデルフレームワークを提案する。
本稿では,FAS画像の高品質なキャプションを生成するために,Spof-Aware Captioning and Filtering(SCF)戦略を提案する。
論文 参考訳(メタデータ) (2025-01-03T09:25:04Z) - Towards Visual Text Design Transfer Across Languages [49.78504488452978]
マルチモーダル・スタイル翻訳(MuST-Bench)の新たな課題について紹介する。
MuST-Benchは、視覚テキスト生成モデルが様々な書き込みシステム間で翻訳を行う能力を評価するために設計されたベンチマークである。
そこで我々は,スタイル記述の必要性を解消する多モーダルなスタイル翻訳フレームワークであるSIGILを紹介した。
論文 参考訳(メタデータ) (2024-10-24T15:15:01Z) - SignAttention: On the Interpretability of Transformer Models for Sign Language Translation [2.079808290618441]
本稿では,トランスフォーマーを用いた手話翻訳モデルの最初の包括的解釈可能性解析について述べる。
モデル内の注意機構について検討し,視覚入力を逐次グルースで処理・調整する方法について考察する。
この研究はSLTモデルのより深い理解に寄与し、より透明で信頼性の高い翻訳システムを開発するための道を開いた。
論文 参考訳(メタデータ) (2024-10-18T14:38:37Z) - Reference-less Analysis of Context Specificity in Translation with
Personalised Language Models [3.527589066359829]
本研究は、リッチキャラクタとフィルムアノテーションがいかにパーソナライズ言語モデル(LM)に活用できるかを考察する。
非文脈モデルと比較して、難易度を最大6.5%削減するために、リッチな文脈情報を活用するLMを構築している。
我々の領域における専門翻訳の文脈特化度は、文脈機械翻訳モデルによりよりよく保存できることを示す。
論文 参考訳(メタデータ) (2023-03-29T12:19:23Z) - Examining Scaling and Transfer of Language Model Architectures for
Machine Translation [51.69212730675345]
言語モデル(LM)は単一のレイヤのスタックで処理し、エンコーダ・デコーダモデル(EncDec)は入力と出力の処理に別々のレイヤスタックを使用する。
機械翻訳において、EncDecは長年好まれてきたアプローチであるが、LMの性能についての研究はほとんどない。
論文 参考訳(メタデータ) (2022-02-01T16:20:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。