論文の概要: Multi-Style Transfer with Discriminative Feedback on Disjoint Corpus
- arxiv url: http://arxiv.org/abs/2010.11578v2
- Date: Mon, 12 Apr 2021 09:39:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 06:31:50.982921
- Title: Multi-Style Transfer with Discriminative Feedback on Disjoint Corpus
- Title(参考訳): disjointコーパスにおける判別フィードバックを用いたマルチスタイル転送
- Authors: Navita Goyal, Balaji Vasan Srinivasan, Anandhavelu Natarajan,
Abhilasha Sancheti
- Abstract要約: スタイル転送は、非並列コーパスを用いた自然言語生成において広く研究されている。
既存のアプローチの共通の欠点は、すべてのスタイリスティックな次元にわたるジョイントアノテーションの前提条件である。
入力テキストの内容を保存しながら、複数のスタイルのスタイルを制御できるモデルの有効性を示す。
- 参考スコア(独自算出の注目度): 9.793194158416854
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Style transfer has been widely explored in natural language generation with
non-parallel corpus by directly or indirectly extracting a notion of style from
source and target domain corpus. A common shortcoming of existing approaches is
the prerequisite of joint annotations across all the stylistic dimensions under
consideration. Availability of such dataset across a combination of styles
limits the extension of these setups to multiple style dimensions. While
cascading single-dimensional models across multiple styles is a possibility, it
suffers from content loss, especially when the style dimensions are not
completely independent of each other. In our work, we relax this requirement of
jointly annotated data across multiple styles by using independently acquired
data across different style dimensions without any additional annotations. We
initialize an encoder-decoder setup with transformer-based language model
pre-trained on a generic corpus and enhance its re-writing capability to
multiple target style dimensions by employing multiple style-aware language
models as discriminators. Through quantitative and qualitative evaluation, we
show the ability of our model to control styles across multiple style
dimensions while preserving content of the input text. We compare it against
baselines involving cascaded state-of-the-art uni-dimensional style transfer
models.
- Abstract(参考訳): スタイル転送は、ソースおよびターゲットドメインコーパスからスタイルの概念を直接的または間接的に抽出することで、非並列コーパスによる自然言語生成において広く研究されてきた。
既存のアプローチの共通の欠点は、検討中の全ての様式的次元にわたる共同アノテーションの前提である。
このようなデータセットのスタイルの組み合わせによる可用性は、これらの設定の拡張を複数のスタイル次元に制限する。
複数のスタイルにまたがる単一次元モデルをカスケードすることは可能であるが、特にスタイル次元が互いに完全に独立していない場合、コンテンツ損失に悩まされる。
本研究では,複数のスタイルにまたがる共用アノテートデータの要件を緩和し,追加のアノテーションを必要とせず,異なるスタイルにまたがる独立的に取得したデータを利用することによって緩和する。
汎用コーパス上で事前訓練されたトランスフォーマーベース言語モデルを用いたエンコーダデコーダのセットアップを初期化し、複数のスタイル認識言語モデルを識別器として使用することにより、その書き換え能力を複数のターゲットスタイル次元に拡張する。
定量的・質的評価により,入力テキストの内容を維持しつつ,複数のスタイル次元にわたってスタイルを制御できることを示す。
逐次的最先端の一次元伝達モデルを含むベースラインと比較する。
関連論文リスト
- StyleDistance: Stronger Content-Independent Style Embeddings with Synthetic Parallel Examples [48.44036251656947]
スタイル表現は、内容に関係なく、類似した書体スタイルのテキストを密に埋め込み、異なる書体スタイルのテキストを遠くに埋め込むことを目的としている。
より強力なコンテンツに依存しないスタイル埋め込みをトレーニングするための新しいアプローチであるStyleDistanceを紹介する。
論文 参考訳(メタデータ) (2024-10-16T17:25:25Z) - DPStyler: Dynamic PromptStyler for Source-Free Domain Generalization [43.67213274161226]
Source-Free Domain Generalization (SFDG) は、ソースドメインに頼ることなく、未確認のターゲットドメインに対して機能するモデルを開発することを目的としている。
SFDGにおける研究は、主に大規模視覚言語モデルの既存の知識に大きく依存している。
本稿では,動的PromptStyler(DPStyler)について紹介する。
論文 参考訳(メタデータ) (2024-03-25T12:31:01Z) - ParaGuide: Guided Diffusion Paraphrasers for Plug-and-Play Textual Style
Transfer [57.6482608202409]
テキストスタイル転送は、意味を保ちながらテキストのスタイル特性を変換するタスクである。
任意のスタイルに柔軟に適応できる汎用型転送のための新しい拡散型フレームワークを提案する。
本研究では,人的評価と自動評価の両面から,Enron Email Corpusの手法を検証するとともに,形式性,感情,さらにはオーサシップスタイルの伝達にも優れることを示す。
論文 参考訳(メタデータ) (2023-08-29T17:36:02Z) - StylerDALLE: Language-Guided Style Transfer Using a Vector-Quantized
Tokenizer of a Large-Scale Generative Model [64.26721402514957]
本論文では,自然言語を用いて抽象芸術スタイルを記述するスタイル転送手法であるStylerDALLEを提案する。
具体的には、非自己回帰的なトークンシーケンス変換として、言語誘導型転送タスクを定式化する。
スタイル情報を組み込むために,CLIPに基づく言語指導による強化学習戦略を提案する。
論文 参考訳(メタデータ) (2023-03-16T12:44:44Z) - Generating More Pertinent Captions by Leveraging Semantics and Style on
Multi-Source Datasets [56.018551958004814]
本稿では,データソースの非一様結合をトレーニングすることで,流動的な記述を生成するタスクに対処する。
ノイズの多い画像とテキストのペアを持つ大規模データセットは、サブ最適の監視源を提供する。
本稿では,検索コンポーネントから抽出したスタイルトークンとキーワードを組み込むことにより,セマンティクスと記述スタイルを活用・分離することを提案する。
論文 参考訳(メタデータ) (2021-11-24T19:00:05Z) - StyleMeUp: Towards Style-Agnostic Sketch-Based Image Retrieval [119.03470556503942]
クロスモーダルマッチング問題は通常、写真とスケッチのモダリティ間で共有されるセマンティックコンテンツを保存する共同埋め込み空間を学習することによって解決される。
効果的なモデルには、このスタイルの多様性を明確に説明する必要がある。
我々のモデルは、モデム間で共有されるセマンティックコンテンツだけでなく、目に見えないユーザースタイルにも適応できるので、モデルは真に不可知的です。
論文 参考訳(メタデータ) (2021-03-29T15:44:19Z) - Exploring Contextual Word-level Style Relevance for Unsupervised Style
Transfer [60.07283363509065]
教師なしのスタイル転送は、元のコンテンツを保持しながら入力文のスタイルを変更することを目的としている。
本稿では,各出力語がターゲットスタイルに関連性があることを活かした,新たな注目シーケンス・ツー・シーケンスモデルを提案する。
実験結果から,提案手法は転送精度とコンテンツ保存の両面から,最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-05-05T10:24:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。