論文の概要: SC2: Towards Enhancing Content Preservation and Style Consistency in Long Text Style Transfer
- arxiv url: http://arxiv.org/abs/2406.04578v1
- Date: Fri, 7 Jun 2024 01:43:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-10 15:48:53.522193
- Title: SC2: Towards Enhancing Content Preservation and Style Consistency in Long Text Style Transfer
- Title(参考訳): SC2:長文スタイル転送におけるコンテンツ保存とスタイル一貫性の強化を目指す
- Authors: Jie Zhao, Ziyu Guan, Cai Xu, Wei Zhao, Yue Jiang,
- Abstract要約: テキストスタイル転送(TST)は、セマンティックコンテンツを保存しながら、テキストのスタイルの極性を変えることを目的としている。
Joint Style-Content Weighed (JSCW)モジュールとStyle Consistency Losは、この2つの問題に対処するために設計されている。
本研究は多種多様な実験を行い, 競争ベースラインよりもSC2が有意に向上したことを示す。
- 参考スコア(独自算出の注目度): 21.72064089983228
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text style transfer (TST) aims to vary the style polarity of text while preserving the semantic content. Although recent advancements have demonstrated remarkable progress in short TST, it remains a relatively straightforward task with limited practical applications. The more comprehensive long TST task presents two challenges: (1) existing methods encounter difficulties in accurately evaluating content attributes in multiple words, leading to content degradation; (2) the conventional vanilla style classifier loss encounters obstacles in maintaining consistent style across multiple generated sentences. In this paper, we propose a novel method SC2, where a multilayer Joint Style-Content Weighed (JSCW) module and a Style Consistency loss are designed to address the two issues. The JSCW simultaneously assesses the amounts of style and content attributes within a token, aiming to acquire a lossless content representation and thereby enhancing content preservation. The multiple JSCW layers further progressively refine content representations. We design a style consistency loss to ensure the generated multiple sentences consistently reflect the target style polarity. Moreover, we incorporate a denoising non-autoregressive decoder to accelerate the training. We conduct plentiful experiments and the results show significant improvements of SC2 over competitive baselines. Our code: https://github.com/jiezhao6/SC2.
- Abstract(参考訳): テキストスタイル転送(TST)は、セマンティックコンテンツを保存しながら、テキストのスタイルの極性を変えることを目的としている。
最近の進歩は短いTSTで顕著な進歩を見せているが、実用的応用が限られている比較的単純な課題である。
より包括的な長いTST課題は,(1) 既存の手法では,複数の単語のコンテンツ属性を正確に評価することが困難であり,内容の劣化につながること,(2) 従来のバニラスタイルの分類器の損失は,複数の文をまたいで一貫したスタイルを維持する上で障害に遭遇すること,の2つの課題を提示する。
本稿では,2つの問題に対処するために,JSCWモジュールとスタイル整合性損失を多層化したSC2を提案する。
JSCWは、トークン内のスタイル属性とコンテンツ属性の量を同時に評価し、損失のないコンテンツ表現を取得し、コンテンツ保存を強化する。
複数のJSCW層はさらにコンテンツ表現を洗練させる。
我々は、生成した複数の文がターゲットスタイルの極性を一貫して反映するように、スタイル整合損失を設計する。
さらに,非自己回帰デコーダをデノベートしてトレーニングを高速化する。
本研究は多種多様な実験を行い, 競争ベースラインよりもSC2が有意に向上したことを示す。
コード:https://github.com/jiezhao6/SC2。
関連論文リスト
- StyleDistance: Stronger Content-Independent Style Embeddings with Synthetic Parallel Examples [48.44036251656947]
スタイル表現は、内容に関係なく、類似した書体スタイルのテキストを密に埋め込み、異なる書体スタイルのテキストを遠くに埋め込むことを目的としている。
より強力なコンテンツに依存しないスタイル埋め込みをトレーニングするための新しいアプローチであるStyleDistanceを紹介する。
論文 参考訳(メタデータ) (2024-10-16T17:25:25Z) - ArtWeaver: Advanced Dynamic Style Integration via Diffusion Model [73.95608242322949]
Stylized Text-to-Image Generation (STIG)は、テキストプロンプトとスタイル参照画像から画像を生成することを目的としている。
我々は、事前訓練された安定拡散を利用して、誤解釈スタイルや一貫性のない意味論といった課題に対処する新しいフレームワーク、ArtWeaverを提案する。
論文 参考訳(メタデータ) (2024-05-24T07:19:40Z) - InstantStyle: Free Lunch towards Style-Preserving in Text-to-Image Generation [5.364489068722223]
スタイルの概念は本質的に過小評価されており、色、材料、雰囲気、デザイン、構造といった様々な要素を含んでいる。
インバージョンベースの手法はスタイルの劣化を招きやすいため、細かな細部が失われることが多い。
アダプタベースのアプローチでは、スタイル強度とテキストの制御性のバランスをとるために、参照画像ごとに微妙な重み調整が必要となることが多い。
論文 参考訳(メタデータ) (2024-04-03T13:34:09Z) - MSSRNet: Manipulating Sequential Style Representation for Unsupervised
Text Style Transfer [82.37710853235535]
教師なしのテキストスタイル転送タスクは、メインのコンテンツを保持しながらテキストをターゲットのスタイルに書き換えることを目的としている。
従来の方法では、固定サイズのベクトルを使ってテキストスタイルを規制するが、個々のトークンのスタイル強度を正確に伝達することは困難である。
提案手法は,テキスト中の各トークンに個々のスタイルベクトルを割り当てることでこの問題に対処する。
論文 参考訳(メタデータ) (2023-06-12T13:12:29Z) - Fine-grained style control in Transformer-based Text-to-speech Synthesis [78.92428622630861]
本稿では,Transformer-based text-to-speech synthesis (TransformerTTS) におけるきめ細かいスタイル制御を実現する新しいアーキテクチャを提案する。
参照音声から局所的スタイルトークン(LST)の時系列を抽出することにより、発話スタイルをモデル化する。
実験により, きめ細かいスタイル制御では, 自然性, 知能性, スタイル伝達性が向上することが示された。
論文 参考訳(メタデータ) (2021-10-12T19:50:02Z) - Enhancing Content Preservation in Text Style Transfer Using Reverse
Attention and Conditional Layer Normalization [15.444996697848266]
一般的なアプローチは、ある文をスタイルのないコンテンツ表現にマッピングし、その内容表現はターゲットスタイルのデコーダに供給される。
従来のフィルタリング方式では、トークンレベルでのスタイルによるトークンを完全に取り除いたため、コンテンツ情報が失われる。
本稿では、各トークンのスタイル情報を逆の注意で暗黙的に取り除き、コンテンツを保持することによってコンテンツ保存を強化することを提案する。
論文 参考訳(メタデータ) (2021-08-01T12:54:46Z) - StylePTB: A Compositional Benchmark for Fine-grained Controllable Text
Style Transfer [90.6768813620898]
スタイル転送は、ソース文定数からコアの意味を維持しながら、ターゲットのスタイル変更を伴うテキストを制御的に生成することを目的としています。
テキストの原子語彙,構文,セマンティック,セマンティックトランスファーにまたがる21のきめ細かなスタイリスティックな文を含む大規模ベンチマークであるStylePTBを導入する。
StylePTBの既存のメソッドは、細かい変更をモデル化するのに苦労し、複数のスタイルを構成するのにさらに困難です。
論文 参考訳(メタデータ) (2021-04-12T04:25:09Z) - Contextual Text Style Transfer [73.66285813595616]
コンテキストテキストスタイル転送は、文をその周囲のコンテキストを考慮した所望のスタイルに変換することを目的としている。
本稿では,各入力文とその周辺コンテキストに対して2つの異なるエンコーダを使用するコンテキスト認識スタイル転送(CAST)モデルを提案する。
Enron-ContextとReddit-Contextという2つの新しいベンチマークが、フォーマル性と攻撃性スタイルの転送のために導入された。
論文 参考訳(メタデータ) (2020-04-30T23:01:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。