論文の概要: Unsupervised Text Style Transfer for Controllable Intensity
- arxiv url: http://arxiv.org/abs/2601.01060v1
- Date: Sat, 03 Jan 2026 04:04:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:21.982534
- Title: Unsupervised Text Style Transfer for Controllable Intensity
- Title(参考訳): 制御可能なインテンシティのための教師なしテキストスタイル転送
- Authors: Shuhuan Gu, Wenbiao Tao, Xinchen Ma, Kangkang He, Ye Guo, Xiang Li, Yunshi Lan,
- Abstract要約: Unsupervised Text Style Transfer (UTST) は、並列テキストペアなしで与えられたテキストのスタイリスティックな特性を転送するシステムを構築することを目的としている。
LLMを微調整するSFT-then-PPOパラダイムを提案する。
- 参考スコア(独自算出の注目度): 14.759144528448138
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised Text Style Transfer (UTST) aims to build a system to transfer the stylistic properties of a given text without parallel text pairs. Compared with text transfer between style polarities, UTST for controllable intensity is more challenging due to the subtle differences in stylistic features across different intensity levels. Faced with the challenges posed by the lack of parallel data and the indistinguishability between adjacent intensity levels, we propose a SFT-then-PPO paradigm to fine-tune an LLM. We first fine-tune the LLM with synthesized parallel data. Then, we further train the LLM with PPO, where the rewards are elaborately designed for distinguishing the stylistic intensity in hierarchical levels. Both the global and local stylistic features are considered to formulate the reward functions. The experiments on two UTST benchmarks showcase that both rewards have their advantages and applying them to LLM fine-tuning can effectively improve the performance of an LLM backbone based on various evaluation metrics. Even for close levels of intensity, we can still observe the noticeable stylistic difference between the generated text.
- Abstract(参考訳): Unsupervised Text Style Transfer (UTST) は、並列テキストペアなしで与えられたテキストのスタイリスティックな特性を転送するシステムを構築することを目的としている。
スタイルの極性間のテキスト転送と比較すると、異なる強度レベルのスタイリスティックな特徴の微妙な違いのため、制御可能な強度のUTSTの方が困難である。
並列データの欠如と隣り合う強度レベルの不明瞭さに直面する課題に直面し,LLMを微調整するSFT-then-PPOパラダイムを提案する。
まず、合成並列データを用いてLLMを微調整する。
さらに,LLMをPPOでトレーニングし,階層レベルの構造的強度を区別するために,報酬を精巧に設計する。
グローバルおよび局所的なスタイリスティックな特徴は、報酬関数を定式化すると考えられている。
2つのUTSTベンチマークの実験では、両方の報酬に利点があり、LLMの微調整に適用することで、様々な評価基準に基づいてLLMのバックボーンの性能を効果的に向上できることが示された。
強度の密接なレベルであっても、生成したテキスト間の顕著なスタイリスティックな違いを観察することができる。
関連論文リスト
- RVLF: A Reinforcing Vision-Language Framework for Gloss-Free Sign Language Translation [44.39679803351263]
我々は手話に特化して設計された大規模視覚言語モデル(LVLM)を構築した。
手話の十分な表現のために、RVLFは効果的な意味表現学習機構を導入する。
そして,文レベルの意味的ミスアライメントを改善するために,GRPOに基づく最適化戦略を導入する。
論文 参考訳(メタデータ) (2025-12-08T08:11:53Z) - Multimodal LLMs as Customized Reward Models for Text-to-Image Generation [60.164968941945645]
LLaVA-Rewardは、複数の視点でテキスト・ツー・イメージ(T2I)生成を自動評価する効率的な報酬モデルである。
LLaVA-Rewardはマルチモーダル大言語モデル(MLLM)の隠れ状態を直接利用する
LLaVA-Rewardは、テキストイメージアライメント、忠実さ/アーティファクト、安全性、全体的なランク付けの4つの観点でトレーニングします。
論文 参考訳(メタデータ) (2025-07-28T23:52:53Z) - SynDec: A Synthesize-then-Decode Approach for Arbitrary Textual Style Transfer via Large Language Models [17.194007856776963]
大規模言語モデル(LLM)は、テキストスタイルの転送において支配的な力として浮上している。
本稿では,高品質なプロンプトを自動的に合成するSynDecアプローチを提案する。
我々は広範囲な実験を行い、SynDecが既存のLLM法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-05-19T08:03:38Z) - Efficient and Adaptive Simultaneous Speech Translation with Fully Unidirectional Architecture [14.056534007451763]
同時音声翻訳(SimulST)は、部分的な音声入力を処理しながら段階的に翻訳を生成する。
既存のLLMベースのSimulSTアプローチは、双方向音声エンコーダの繰り返し符号化による計算オーバーヘッドが大きい。
完全一方向アーキテクチャを用いた効率・適応同時音声翻訳(EASiST)を提案する。
論文 参考訳(メタデータ) (2025-04-16T06:46:15Z) - AlignVLM: Bridging Vision and Language Latent Spaces for Multimodal Document Understanding [79.43306110124875]
AlignVLMは視覚的特徴をテキスト埋め込みの重み付き平均値にマッピングする視覚テキストアライメント手法である。
実験の結果,AlignVLMは先行アライメント法と比較して最先端の性能を実現していることがわかった。
論文 参考訳(メタデータ) (2025-02-03T13:34:51Z) - Automated Multi-level Preference for MLLMs [41.72392895643214]
「現在のマルチモーダル大言語モデル(MLLM)は幻覚に苦しむ」
有望な道の1つは、人間からのフィードバック(RLHF)からの強化学習を利用することである。
二項選好(上等、下等)の一般的な実践を再考し、多水準選好を採用する方が2つの利点があることを示す。
論文 参考訳(メタデータ) (2024-05-18T03:49:37Z) - Prefix Text as a Yarn: Eliciting Non-English Alignment in Foundation Language Model [50.339632513018934]
教師付き微調整(SFT)は、基礎大言語モデル(LLM)の出力を特定の嗜好に合わせるための単純なアプローチである。
我々はこの仮説を言語間タスクの範囲内で批判的に検証する。
タスク関連トークンを最小化するPreTTYという新しいトレーニングフリーアライメント手法を提案する。
論文 参考訳(メタデータ) (2024-04-25T17:19:36Z) - Unsupervised Text Style Transfer via LLMs and Attention Masking with
Multi-way Interactions [18.64326057581588]
非教師付きテキストスタイル転送(UTST)が自然言語処理(NLP)分野における重要な課題として浮上している。
本稿では,命令を調整したパイプライン・フレームワークであるLarge Language Models (LLMs) から注目マスキング・モデルへの知識蒸留,構築された並列例を用いたコンテキスト内学習の4つの方法を提案する。
これらのマルチウェイインタラクションは、スタイルの強さ、コンテンツ保存、テキストの流布といった観点から、ベースラインを改善することを実証的に示しています。
論文 参考訳(メタデータ) (2024-02-21T09:28:02Z) - The Unlocking Spell on Base LLMs: Rethinking Alignment via In-Context
Learning [61.68787689234622]
最近の研究であるLIMAは、アライメントチューニングに1Kの例のみを用いることで、アライメント性能も著しく向上することを示した。
これにより、アライメントチューニングがベースLLMをどのように変換するかという疑問が提起される。
本研究では,チューニングフリーとチューニングベースアライメントのギャップを戦略的プロンプトによって著しく低減できることを示す。
論文 参考訳(メタデータ) (2023-12-04T00:46:11Z) - AlignedCoT: Prompting Large Language Models via Native-Speaking Demonstrations [52.43593893122206]
Alignedcotは、大規模言語モデルを呼び出すためのコンテキスト内学習技術である。
ゼロショットシナリオでは、一貫した正しいステップワイズプロンプトを達成する。
数学的推論とコモンセンス推論の実験を行う。
論文 参考訳(メタデータ) (2023-11-22T17:24:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。