論文の概要: STEER: Unified Style Transfer with Expert Reinforcement
- arxiv url: http://arxiv.org/abs/2311.07167v1
- Date: Mon, 13 Nov 2023 09:02:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 15:00:20.756946
- Title: STEER: Unified Style Transfer with Expert Reinforcement
- Title(参考訳): steer: エキスパート強化による統一スタイル転送
- Authors: Skyler Hallinan, Faeze Brahman, Ximing Lu, Jaehun Jung, Sean Welleck,
Yejin Choi
- Abstract要約: STEER: Unified Style Transfer with Expert Reinforcementは、スタイル転送のための限られた並列データという課題を克服するために開発された、統一されたフレームワークである。
STEERは堅牢で、ドメイン外のデータでスタイル転送機能を維持し、様々なスタイルでほぼすべてのベースラインを超越している。
- 参考スコア(独自算出の注目度): 71.3995732115262
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While text style transfer has many applications across natural language
processing, the core premise of transferring from a single source style is
unrealistic in a real-world setting. In this work, we focus on arbitrary style
transfer: rewriting a text from an arbitrary, unknown style to a target style.
We propose STEER: Unified Style Transfer with Expert Reinforcement, a unified
frame-work developed to overcome the challenge of limited parallel data for
style transfer. STEER involves automatically generating a corpus of
style-transfer pairs using a product of experts during decoding. The generated
offline data is then used to pre-train an initial policy before switching to
online, off-policy reinforcement learning for further improvements via
fine-grained reward signals. STEER is unified and can transfer to multiple
target styles from an arbitrary, unknown source style, making it particularly
flexible and efficient.
Experimental results on a challenging dataset with text from a diverse set of
styles demonstrate state-of-the-art results compared to competitive baselines.
Remarkably, STEER outperforms the 175B parameter instruction-tuned GPT-3 on
overall style transfer quality, despite being 226 times smaller in size. We
also show STEER is robust, maintaining its style transfer capabilities on
out-of-domain data, and surpassing nearly all baselines across various styles.
The success of our method highlights the potential of RL algorithms when
augmented with controllable decoding to overcome the challenge of limited data
supervision.
- Abstract(参考訳): テキストスタイルの転送には自然言語処理にまたがる多くの応用があるが、単一のソーススタイルからの転送の前提は現実の環境では非現実的である。
本研究では、任意のスタイル転送に焦点を当て、任意の未知のスタイルからターゲットスタイルにテキストを書き換える。
スタイル転送のための制限された並列データの課題を克服するために開発された統一フレームワークである,エキスパート強化による統一スタイル転送を提案する。
STEERは、デコーディング中に専門家の製品を使用してスタイル転送ペアのコーパスを自動的に生成する。
生成されたオフラインデータは、オンラインのオフライン強化学習に切り替える前に、初期ポリシーを事前訓練するために使用される。
STEERは統一されており、任意の未知のソーススタイルから複数のターゲットスタイルに転送できるため、特に柔軟で効率的である。
多様なスタイルのテキストを用いた挑戦的データセットの実験結果は、競合するベースラインと比較して最先端の結果を示している。
興味深いことに、STEERは175Bパラメータの指定したGPT-3よりも226倍小さいが、全体的なスタイルの転送品質が高い。
また、STEERは堅牢で、ドメイン外のデータでスタイル転送機能を維持し、様々なスタイルでほぼすべてのベースラインを超越していることを示す。
本手法の成功は,制限されたデータ管理の課題を克服するために,制御可能なデコードで拡張されたRLアルゴリズムの可能性を強調した。
関連論文リスト
- SETTP: Style Extraction and Tunable Inference via Dual-level Transferable Prompt Learning [22.04285529067442]
デュアルレベルトランスファーブル・プロンプト学習によるスタイル抽出とチューナブル推論を提案する。
SETTPは、高リソーススタイル転送から基本スタイルの特徴を含むソーススタイルレベルのプロンプトを学習する。
実験によると、SETTPは最先端の手法に匹敵するパフォーマンスを達成するためにデータボリュームの1/20しか必要としない。
論文 参考訳(メタデータ) (2024-07-22T11:34:48Z) - Authorship Style Transfer with Policy Optimization [26.34892894935038]
オーサシップスタイルの転送は、ソースの本来の意味を保ちながら、指定されたテキストを指定されたターゲットに書き換えることを目的としている。
既存のアプローチでは、モデルトレーニングのための多くのターゲットスタイルの例が利用可能になっている。
論文 参考訳(メタデータ) (2024-03-12T19:34:54Z) - ParaGuide: Guided Diffusion Paraphrasers for Plug-and-Play Textual Style
Transfer [57.6482608202409]
テキストスタイル転送は、意味を保ちながらテキストのスタイル特性を変換するタスクである。
任意のスタイルに柔軟に適応できる汎用型転送のための新しい拡散型フレームワークを提案する。
本研究では,人的評価と自動評価の両面から,Enron Email Corpusの手法を検証するとともに,形式性,感情,さらにはオーサシップスタイルの伝達にも優れることを示す。
論文 参考訳(メタデータ) (2023-08-29T17:36:02Z) - MSSRNet: Manipulating Sequential Style Representation for Unsupervised
Text Style Transfer [82.37710853235535]
教師なしのテキストスタイル転送タスクは、メインのコンテンツを保持しながらテキストをターゲットのスタイルに書き換えることを目的としている。
従来の方法では、固定サイズのベクトルを使ってテキストスタイルを規制するが、個々のトークンのスタイル強度を正確に伝達することは困難である。
提案手法は,テキスト中の各トークンに個々のスタイルベクトルを割り当てることでこの問題に対処する。
論文 参考訳(メタデータ) (2023-06-12T13:12:29Z) - Master: Meta Style Transformer for Controllable Zero-Shot and Few-Shot
Artistic Style Transfer [83.1333306079676]
本稿では,スタイル転送に特化した新しいトランスフォーマーモデルであるemphMasterを考案する。
提案モデルでは, 異なるトランスフォーマー層が共通のパラメータ群を共有し, 1) パラメータの総数を減らし, (2) より堅牢なトレーニング収束をもたらし, (3) は容易にスタイリングの程度を制御できる。
実験では、ゼロショットと少数ショットスタイルの転送設定の両方でMasterの優位性を示す。
論文 参考訳(メタデータ) (2023-04-24T04:46:39Z) - Learning from Bootstrapping and Stepwise Reinforcement Reward: A
Semi-Supervised Framework for Text Style Transfer [30.622772801446132]
テキストスタイル転送のための半教師付きフレームワークを提案する。
まず、擬似並列ペアを自動構築し、教師付きで学習プロセスをブートストラップする。
そして、モデルは強化報酬を通じてラベルなしのデータから学習する。
論文 参考訳(メタデータ) (2022-05-19T05:18:06Z) - StylePTB: A Compositional Benchmark for Fine-grained Controllable Text
Style Transfer [90.6768813620898]
スタイル転送は、ソース文定数からコアの意味を維持しながら、ターゲットのスタイル変更を伴うテキストを制御的に生成することを目的としています。
テキストの原子語彙,構文,セマンティック,セマンティックトランスファーにまたがる21のきめ細かなスタイリスティックな文を含む大規模ベンチマークであるStylePTBを導入する。
StylePTBの既存のメソッドは、細かい変更をモデル化するのに苦労し、複数のスタイルを構成するのにさらに困難です。
論文 参考訳(メタデータ) (2021-04-12T04:25:09Z) - Reformulating Unsupervised Style Transfer as Paraphrase Generation [48.83148014000888]
パラフレーズ生成問題として教師なしスタイル転送を再構成する。
本稿では,自動生成したパラフレーズデータに基づいて,微調整事前学習言語モデルに基づく簡単な手法を提案する。
また、11種類の異なるスタイルで15万文の大規模なデータセットを収集することで、より現実的なスタイルの転送設定に転換する。
論文 参考訳(メタデータ) (2020-10-12T13:31:01Z) - Fair Transfer of Multiple Style Attributes in Text [26.964711594103566]
複数のスタイルの転送を連続的に行うことで、複数のスタイルの転送が達成できないことを示す。
与えられたテキストで複数のスタイル属性を公平に転送するためのニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-01-18T15:38:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。