論文の概要: Enhancing Content Preservation in Text Style Transfer Using Reverse
Attention and Conditional Layer Normalization
- arxiv url: http://arxiv.org/abs/2108.00449v1
- Date: Sun, 1 Aug 2021 12:54:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-04 05:45:12.387820
- Title: Enhancing Content Preservation in Text Style Transfer Using Reverse
Attention and Conditional Layer Normalization
- Title(参考訳): 逆注意と条件層正規化を用いたテキストスタイル転送におけるコンテンツ保存の強化
- Authors: Dongkyu Lee, Zhiliang Tian, Lanqing Xue, Nevin L. Zhang
- Abstract要約: 一般的なアプローチは、ある文をスタイルのないコンテンツ表現にマッピングし、その内容表現はターゲットスタイルのデコーダに供給される。
従来のフィルタリング方式では、トークンレベルでのスタイルによるトークンを完全に取り除いたため、コンテンツ情報が失われる。
本稿では、各トークンのスタイル情報を逆の注意で暗黙的に取り除き、コンテンツを保持することによってコンテンツ保存を強化することを提案する。
- 参考スコア(独自算出の注目度): 15.444996697848266
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Text style transfer aims to alter the style (e.g., sentiment) of a sentence
while preserving its content. A common approach is to map a given sentence to
content representation that is free of style, and the content representation is
fed to a decoder with a target style. Previous methods in filtering style
completely remove tokens with style at the token level, which incurs the loss
of content information. In this paper, we propose to enhance content
preservation by implicitly removing the style information of each token with
reverse attention, and thereby retain the content. Furthermore, we fuse content
information when building the target style representation, making it dynamic
with respect to the content. Our method creates not only style-independent
content representation, but also content-dependent style representation in
transferring style. Empirical results show that our method outperforms the
state-of-the-art baselines by a large margin in terms of content preservation.
In addition, it is also competitive in terms of style transfer accuracy and
fluency.
- Abstract(参考訳): テキストスタイル転送は、文章の内容を維持しながら文のスタイル(例えば感情)を変更することを目的としている。
一般的なアプローチは、与えられた文をスタイルのないコンテンツ表現にマッピングすることであり、コンテンツ表現はターゲットスタイルを持つデコーダに供給される。
従来のフィルタリング方式では、トークンレベルでのスタイルによるトークンを完全に取り除いたため、コンテンツ情報が失われる。
本稿では,各トークンのスタイル情報を逆注意で暗黙的に削除することにより,コンテンツの保存性を高めることを提案する。
さらに、対象のスタイル表現を構築する際にコンテンツ情報を融合し、コンテンツに関して動的にする。
本手法は,スタイル非依存のコンテンツ表現だけでなく,転送スタイルにおけるコンテンツ依存のスタイル表現も生成する。
実験の結果,本手法はコンテンツ保存の点で最先端のベースラインよりも高いマージンを示した。
加えて、スタイル転送の正確さとフラレンシーの面でも競争力がある。
関連論文リスト
- Artist: Aesthetically Controllable Text-Driven Stylization without Training [19.5597806965592]
テキスト駆動型スタイリングのための事前学習拡散モデルのコンテンツとスタイル生成を審美的に制御する,トレーニング不要なアプローチである textbfArtist を導入する。
私たちのキーとなる洞察は、コンテンツとスタイルを分離した拡散プロセスに分割し、情報を共有することです。
本手法は, 審美レベルのスタイリゼーション要件の達成, コンテンツイメージの複雑な詳細の保存, スタイルプロンプトの整合性に優れる。
論文 参考訳(メタデータ) (2024-07-22T17:58:05Z) - InstantStyle-Plus: Style Transfer with Content-Preserving in Text-to-Image Generation [4.1177497612346]
スタイル転送(Style Transfer)は、視覚的なスタイルを取り入れながら、オリジナルの本質を維持するイメージを作成するために設計された革新的なプロセスである。
InstantStyle-Plusは、ターゲットスタイルをシームレスに統合しながら、オリジナルコンテンツの整合性を優先するアプローチである。
論文 参考訳(メタデータ) (2024-06-30T18:05:33Z) - Few-shot Image Generation via Style Adaptation and Content Preservation [60.08988307934977]
我々は、GAN転送に画像翻訳モジュールを導入し、モジュールはジェネレータにスタイルとコンテンツを分離するように教える。
我々の手法はショット設定がほとんどない状態で、常に最先端の手法を超越している。
論文 参考訳(メタデータ) (2023-11-30T01:16:53Z) - InfoStyler: Disentanglement Information Bottleneck for Artistic Style
Transfer [22.29381866838179]
アートスタイルの転送は、アートワークのスタイルを、オリジナル全体のコンテンツを維持しながら写真に転送することを目的としている。
本稿では,コンテンツとスタイル表現の両面において,最小限の情報を取得するために,InfoStylerという新しい情報分離手法を提案する。
論文 参考訳(メタデータ) (2023-07-30T13:38:56Z) - MSSRNet: Manipulating Sequential Style Representation for Unsupervised
Text Style Transfer [82.37710853235535]
教師なしのテキストスタイル転送タスクは、メインのコンテンツを保持しながらテキストをターゲットのスタイルに書き換えることを目的としている。
従来の方法では、固定サイズのベクトルを使ってテキストスタイルを規制するが、個々のトークンのスタイル強度を正確に伝達することは困難である。
提案手法は,テキスト中の各トークンに個々のスタイルベクトルを割り当てることでこの問題に対処する。
論文 参考訳(メタデータ) (2023-06-12T13:12:29Z) - DiffStyler: Controllable Dual Diffusion for Text-Driven Image
Stylization [66.42741426640633]
DiffStylerは、拡散された結果の内容とスタイルのバランスを制御するための二重拡散処理アーキテクチャである。
本稿では、逆復調処理をベースとしたコンテンツ画像に基づく学習可能なノイズを提案し、そのスタイリング結果により、コンテンツ画像の構造情報をよりよく保存する。
論文 参考訳(メタデータ) (2022-11-19T12:30:44Z) - Language-Driven Image Style Transfer [72.36790598245096]
我々は、テキストでガイドされたコンテンツイメージのスタイルを操作するための新しいタスク、言語駆動型イメージスタイル転送(textttLDIST)を導入する。
識別器は、スタイルイメージの言語とパッチの相関や、変換された結果の相関を考慮し、スタイル命令を共同で埋め込む。
実験により, CLVAは有効であり, textttLDIST 上で超高速に転送された結果が得られた。
論文 参考訳(メタデータ) (2021-06-01T01:58:50Z) - Arbitrary Style Transfer via Multi-Adaptation Network [109.6765099732799]
所望のスタイル転送は、内容画像と参照されたスタイル絵が与えられた場合、そのスタイル絵の色調と鮮やかなストロークパターンで内容画像を描画する。
新たな不整合損失関数により,本ネットワークは,様々な入力画像に適応する主文パターンと正確なコンテンツ構造を抽出できる。
論文 参考訳(メタデータ) (2020-05-27T08:00:22Z) - Exploring Contextual Word-level Style Relevance for Unsupervised Style
Transfer [60.07283363509065]
教師なしのスタイル転送は、元のコンテンツを保持しながら入力文のスタイルを変更することを目的としている。
本稿では,各出力語がターゲットスタイルに関連性があることを活かした,新たな注目シーケンス・ツー・シーケンスモデルを提案する。
実験結果から,提案手法は転送精度とコンテンツ保存の両面から,最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-05-05T10:24:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。