論文の概要: StyleAdaptedLM: Enhancing Instruction Following Models with Efficient Stylistic Transfer
- arxiv url: http://arxiv.org/abs/2507.18294v1
- Date: Thu, 24 Jul 2025 10:57:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-25 15:10:43.430455
- Title: StyleAdaptedLM: Enhancing Instruction Following Models with Efficient Stylistic Transfer
- Title(参考訳): StyleAdaptedLM: 効率的なストリスティックトランスファーモデルに基づくインストラクションの強化
- Authors: Pritika Ramu, Apoorv Saxena, Meghanath M Y, Varsha Sankar, Debraj Basu,
- Abstract要約: StyleAdaptedLMは、スタイリスティックな特徴を命令追従モデルに効率的に転送するフレームワークである。
LoRAアダプタは、まず様々な非構造化スタイリスティックコーパスを持つベースモデルで訓練され、その後、個別の命令追従モデルとマージされる。
- 参考スコア(独自算出の注目度): 4.077787659104315
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Adapting LLMs to specific stylistic characteristics, like brand voice or authorial tones, is crucial for enterprise communication but challenging to achieve from corpora which lacks instruction-response formatting without compromising instruction adherence. We introduce StyleAdaptedLM, a framework that efficiently transfers stylistic traits to instruction-following models using Low-Rank Adaptation (LoRA). LoRA adapters are first trained on a base model with diverse unstructured stylistic corpora, then merged with a separate instruction-following model. This enables robust stylistic customization without paired data or sacrificing task performance. Experiments across multiple datasets and models demonstrate improved stylistic consistency while preserving instruction adherence, with human evaluations confirming brand-specific convention uptake. StyleAdaptedLM offers an efficient path for stylistic personalization in LLMs.
- Abstract(参考訳): LLMをブランド音声や権威音といった特定のスタイル特性に適応させることは、企業コミュニケーションには不可欠であるが、命令の順応性を損なうことなく、命令応答の形式に欠けるコーパスから達成することは困難である。
本稿では,Low-Rank Adaptation (LoRA) を用いた命令追従モデルにスタイリスティックな特徴を効率的に伝達するフレームワークであるStyleAdaptedLMを紹介する。
LoRAアダプタは、まず様々な非構造化スタイリスティックコーパスを持つベースモデルで訓練され、その後、個別の命令追従モデルとマージされる。
これにより、ペアデータやタスクパフォーマンスを犠牲にすることなく、堅牢なスタイリスティックなカスタマイズが可能になる。
複数のデータセットとモデルにわたる実験は、命令の順守を維持しながら、スタイル整合性の改善を示し、人間の評価はブランド固有のコンベンションの獲得を確認している。
StyleAdaptedLMは、LLMにおけるスタイリスティックパーソナライズのための効率的なパスを提供する。
関連論文リスト
- DRC: Enhancing Personalized Image Generation via Disentangled Representation Composition [69.10628479553709]
大規模マルチモーダルモデル(LMM)を拡張した新しいパーソナライズされた画像生成フレームワークであるDRCを紹介する。
DRCは、履歴画像と参照画像から、ユーザスタイルの好みと意味的な意図をそれぞれ明示的に抽出する。
本研究は2つの重要な学習段階を包含する。1) スタイルと意味的特徴を明確に分離するために二重解離型学習を用い,難易度を考慮した再構成駆動型パラダイムを用いて最適化し,2) パーソナライズド・パーソナライズド・パーソナライズド・ジェネレーションを効果的に適用するパーソナライズド・モデリング。
論文 参考訳(メタデータ) (2025-04-24T08:10:10Z) - Measuring What Makes You Unique: Difference-Aware User Modeling for Enhancing LLM Personalization [68.79814761867314]
本稿では,Large Language Models (LLM) のパーソナライゼーションを強化するために,差分認識パーソナライズ学習(DPL)を提案する。
DPLは、戦略的に代表ユーザを比較のために選択し、タスク関連の違いを抽出するための構造化標準を確立する。
実世界のデータセットの実験により、DPLはLLMのパーソナライゼーションを大幅に向上させることが示された。
論文 参考訳(メタデータ) (2025-03-04T09:53:26Z) - DRESSing Up LLM: Efficient Stylized Question-Answering via Style Subspace Editing [23.467409274256255]
DRESSは、表現編集によってスタイル化された大言語モデル(LLM)応答を生成する新しいアプローチである。
提案手法は,モデル表現空間内のスタイル関連部分空間をアンタングルして表現編集を行う。
簡単に言うと、DRESSは柔軟で効果的なスタイル制御を備えたLLMの拡張のための軽量で、列車無しのソリューションである。
論文 参考訳(メタデータ) (2025-01-24T10:04:53Z) - VladVA: Discriminative Fine-tuning of LVLMs [67.14293827774827]
CLIPのような対照的に訓練された視覚言語モデル(VLM)は、識別的視覚言語表現学習の事実上のアプローチとなっている。
我々は,LVLMの識別的微調整のための新たな訓練手法である「両世界のベスト」を組み合わせることを提案する。
論文 参考訳(メタデータ) (2024-12-05T17:54:27Z) - Align$^2$LLaVA: Cascaded Human and Large Language Model Preference Alignment for Multi-modal Instruction Curation [56.75665429851673]
本稿では,人間とLLMの選好アライメントという2つのユニークな視点から導いた,新しい命令キュレーションアルゴリズムを提案する。
実験により,合成マルチモーダル命令を最大90%圧縮することにより,モデル性能の維持や改善が可能であることが示された。
論文 参考訳(メタデータ) (2024-09-27T08:20:59Z) - Decoding Style: Efficient Fine-Tuning of LLMs for Image-Guided Outfit Recommendation with Preference [4.667044856219814]
本稿では,大規模言語モデル(LLM)の表現力を利用した,個人化された衣装推薦手法を提案する。
MLLM(Multimodal Large Language Model)を用いた画像キャプションによる項目記述の視覚的・テキスト的ギャップを橋渡しする。
このフレームワークは、Polyvoreデータセットで評価され、その効果を2つの重要なタスク、すなわちFill-in-the-blankと補完的なアイテム検索で実証する。
論文 参考訳(メタデータ) (2024-09-18T17:15:06Z) - SCAR: Data Selection via Style Consistency-Aware Response Ranking for Efficient Instruction-Tuning of Large Language Models [56.93151679231602]
本研究は, 応答における2つの重要なスタイル的要素, 言語形式と指導的前提を同定する。
これに触発されて、スタイル一貫性対応対応ランキング(SCAR)を導入する。
SCARは、そのレスポンススタイリスティックな一貫性に基づいて、トレーニングセット内の命令-レスポンスペアを優先順位付けする。
論文 参考訳(メタデータ) (2024-06-16T10:10:37Z) - HiCAST: Highly Customized Arbitrary Style Transfer with Adapter Enhanced
Diffusion Models [84.12784265734238]
Arbitrary Style Transfer (AST)の目標は、あるスタイル参照の芸術的特徴を所定の画像/ビデオに注入することである。
各種のセマンティックな手がかりに基づいてスタイリング結果を明示的にカスタマイズできるHiCASTを提案する。
新たな学習目標をビデオ拡散モデルトレーニングに活用し,フレーム間の時間的一貫性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-01-11T12:26:23Z) - Non-Parallel Text Style Transfer with Self-Parallel Supervision [19.441780035577352]
大規模言語モデルに基づく新しいテキストスタイル転送フレームワークであるLaMerを提案する。
LaMerはまず、シーングラフで非並列データセットのほぼ並列表現をマイニングし、続いてMLEトレーニングを使用し、続いて模倣学習の改良を行い、データ内の本質的な並列性を活用する。
2つのベンチマークタスク(センチメントとフォーマル性転送)と、新たに提案された課題タスク(政治的スタンス転送)において、我々のモデルは、転送精度、コンテンツ保存および流速の質的な進歩を達成する。
論文 参考訳(メタデータ) (2022-04-18T01:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。