論文の概要: StyleFlow: Disentangle Latent Representations via Normalizing Flow for
Unsupervised Text Style Transfer
- arxiv url: http://arxiv.org/abs/2212.09670v1
- Date: Mon, 19 Dec 2022 17:59:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 16:57:05.425649
- Title: StyleFlow: Disentangle Latent Representations via Normalizing Flow for
Unsupervised Text Style Transfer
- Title(参考訳): Style Flow: 教師なしテキストスタイル転送のための正規化フローによる遠方潜在表現
- Authors: Kangchen Zhu, Zhiliang Tian, Ruifeng Luo, Xiaoguang Mao
- Abstract要約: スタイル転送は、その内容を保持しながら文のスタイルを変更することを目的としている。
本稿では,コンテンツ保存性を高めるために,新しいアンタングル型スタイル転送モデルであるStyleFlowを提案する。
- 参考スコア(独自算出の注目度): 5.439842512864442
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text style transfer aims to alter the style of a sentence while preserving
its content. Due to the lack of parallel corpora, most recent work focuses on
unsupervised methods and often uses cycle construction to train models. Since
cycle construction helps to improve the style transfer ability of the model by
rebuilding transferred sentences back to original-style sentences, it brings
about a content loss in unsupervised text style transfer tasks. In this paper,
we propose a novel disentanglement-based style transfer model StyleFlow to
enhance content preservation. Instead of the typical encoder-decoder scheme,
StyleFlow can not only conduct the forward process to obtain the output, but
also infer to the input through the output. We design an attention-aware
coupling layers to disentangle the content representations and the style
representations of a sentence. Besides, we propose a data augmentation method
based on Normalizing Flow to improve the robustness of the model. Experiment
results demonstrate that our model preserves content effectively and achieves
the state-of-the-art performance on the most metrics.
- Abstract(参考訳): テキストスタイルの転送は、コンテンツを保存しながら文のスタイルを変更することを目的としている。
並列コーパスの欠如により、最近の研究は教師なしの手法に焦点をあて、しばしばモデルの訓練にサイクル構成を用いる。
サイクル構成は、転送文を元の文に再構築することで、モデルのスタイル転送能力を向上させるため、教師なしのテキストスタイル転送タスクでコンテンツが失われる。
本稿では,コンテンツ保存性を高めるために,新しいアンタングル型スタイル転送モデルであるStyleFlowを提案する。
典型的なエンコーダ・デコーダ方式の代わりに、StyleFlowは出力を得るために前方プロセスを実行するだけでなく、出力を通して入力を推測する。
文のコンテンツ表現とスタイル表現をアンタングル化するために,注意を意識した結合層を設計する。
さらに,モデルのロバスト性を改善するために,正規化フローに基づくデータ拡張手法を提案する。
実験結果から,本モデルはコンテンツを効果的に保存し,ほとんどの指標で最先端のパフォーマンスを実現する。
関連論文リスト
- Prefix-Tuning Based Unsupervised Text Style Transfer [29.86587278794342]
教師なしテキストスタイル転送は、その内容を保持しながら入力文のスタイルを変更することができる生成モデルを訓練することを目的としている。
本稿では,事前学習された強力な大規模言語モデルを用いて,教師なしテキストスタイル転送のためのプレフィックス・チューニング方式を提案する。
論文 参考訳(メタデータ) (2023-10-23T06:13:08Z) - ParaGuide: Guided Diffusion Paraphrasers for Plug-and-Play Textual Style
Transfer [57.6482608202409]
テキストスタイル転送は、意味を保ちながらテキストのスタイル特性を変換するタスクである。
任意のスタイルに柔軟に適応できる汎用型転送のための新しい拡散型フレームワークを提案する。
本研究では,人的評価と自動評価の両面から,Enron Email Corpusの手法を検証するとともに,形式性,感情,さらにはオーサシップスタイルの伝達にも優れることを示す。
論文 参考訳(メタデータ) (2023-08-29T17:36:02Z) - DiffStyler: Controllable Dual Diffusion for Text-Driven Image
Stylization [66.42741426640633]
DiffStylerは、拡散された結果の内容とスタイルのバランスを制御するための二重拡散処理アーキテクチャである。
本稿では、逆復調処理をベースとしたコンテンツ画像に基づく学習可能なノイズを提案し、そのスタイリング結果により、コンテンツ画像の構造情報をよりよく保存する。
論文 参考訳(メタデータ) (2022-11-19T12:30:44Z) - StoryTrans: Non-Parallel Story Author-Style Transfer with Discourse
Representations and Content Enhancing [73.81778485157234]
長文は通常、文よりも談話構造のような複雑な著者の言語的嗜好を含んでいる。
我々は、入力されたストーリーを特定の著者スタイルに転送する必要があるノン並列ストーリー作者スタイル転送のタスクを定式化する。
モデルが自動エンコーダに退化することを防ぐために,学習した談話表現からスタイル的特徴を引き離すための追加の学習目標を用いる。
論文 参考訳(メタデータ) (2022-08-29T08:47:49Z) - GTAE: Graph-Transformer based Auto-Encoders for Linguistic-Constrained
Text Style Transfer [119.70961704127157]
近年,非並列テキストスタイルの転送が研究の関心を集めている。
現在のアプローチでは、元の文の内容やロジックを保存できない。
文を言語グラフとしてモデル化し,グラフレベルで特徴抽出とスタイル転送を行う,グラフトランスフォーマーベースのAuto-GTAEを提案する。
論文 参考訳(メタデータ) (2021-02-01T11:08:45Z) - TextSETTR: Few-Shot Text Style Extraction and Tunable Targeted Restyling [23.60231661500702]
本稿では,テキストスタイル転送問題に対する新しいアプローチを提案する。
本手法は,隣接文間の暗黙的な接続を頼りに,手軽に使用可能な非ラベルテキストを利用する。
ラベルなしAmazonでのトレーニングでは、データレビューの結果が感情伝達に競合するモデルになっていることを実証する。
論文 参考訳(メタデータ) (2020-10-08T07:06:38Z) - Exploring Contextual Word-level Style Relevance for Unsupervised Style
Transfer [60.07283363509065]
教師なしのスタイル転送は、元のコンテンツを保持しながら入力文のスタイルを変更することを目的としている。
本稿では,各出力語がターゲットスタイルに関連性があることを活かした,新たな注目シーケンス・ツー・シーケンスモデルを提案する。
実験結果から,提案手法は転送精度とコンテンツ保存の両面から,最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-05-05T10:24:28Z) - Contextual Text Style Transfer [73.66285813595616]
コンテキストテキストスタイル転送は、文をその周囲のコンテキストを考慮した所望のスタイルに変換することを目的としている。
本稿では,各入力文とその周辺コンテキストに対して2つの異なるエンコーダを使用するコンテキスト認識スタイル転送(CAST)モデルを提案する。
Enron-ContextとReddit-Contextという2つの新しいベンチマークが、フォーマル性と攻撃性スタイルの転送のために導入された。
論文 参考訳(メタデータ) (2020-04-30T23:01:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。