論文の概要: Cycle-Consistent Adversarial Autoencoders for Unsupervised Text Style
Transfer
- arxiv url: http://arxiv.org/abs/2010.00735v1
- Date: Fri, 2 Oct 2020 00:43:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 00:22:57.049147
- Title: Cycle-Consistent Adversarial Autoencoders for Unsupervised Text Style
Transfer
- Title(参考訳): 教師なしテキストスタイル転送のための周期整合逆オートエンコーダ
- Authors: Yufang Huang, Wentao Zhu, Deyi Xiong, Yiye Zhang, Changjian Hu, Feiyu
Xu
- Abstract要約: 教師なしのテキストスタイルの転送は、並列データの欠如とコンテンツ保存の難しさにより、課題に満ちている。
本稿では,非並列データからトレーニングしたCycle-Consistent Adrial AutoEncoders (CAE) と呼ばれる,教師なしテキストスタイル転送のための新しいニューラルネットワークを提案する。
CAEは3つの必須コンポーネントで構成されている: LSTMオートエンコーダは、あるスタイルのテキストをその潜在表現にエンコードし、エンコードされた表現を元のテキストまたは変換された表現にデコードする。
- 参考スコア(独自算出の注目度): 37.402727594285224
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unsupervised text style transfer is full of challenges due to the lack of
parallel data and difficulties in content preservation. In this paper, we
propose a novel neural approach to unsupervised text style transfer, which we
refer to as Cycle-consistent Adversarial autoEncoders (CAE) trained from
non-parallel data. CAE consists of three essential components: (1) LSTM
autoencoders that encode a text in one style into its latent representation and
decode an encoded representation into its original text or a transferred
representation into a style-transferred text, (2) adversarial style transfer
networks that use an adversarially trained generator to transform a latent
representation in one style into a representation in another style, and (3) a
cycle-consistent constraint that enhances the capacity of the adversarial style
transfer networks in content preservation. The entire CAE with these three
components can be trained end-to-end. Extensive experiments and in-depth
analyses on two widely-used public datasets consistently validate the
effectiveness of proposed CAE in both style transfer and content preservation
against several strong baselines in terms of four automatic evaluation metrics
and human evaluation.
- Abstract(参考訳): 教師なしのテキストスタイルの転送は、並列データの欠如とコンテンツ保存の困難により、課題に満ちている。
本稿では,非並列データから学習したCycle-Consistent Adversarial AutoEncoders (CAE) と呼ばれる,教師なしテキストスタイル転送のための新しいニューラルネットワークを提案する。
CAE consists of three essential components: (1) LSTM autoencoders that encode a text in one style into its latent representation and decode an encoded representation into its original text or a transferred representation into a style-transferred text, (2) adversarial style transfer networks that use an adversarially trained generator to transform a latent representation in one style into a representation in another style, and (3) a cycle-consistent constraint that enhances the capacity of the adversarial style transfer networks in content preservation.
これら3つのコンポーネントを持つCAE全体をエンドツーエンドでトレーニングすることができる。
4つの自動評価指標と人的評価の観点から,多種多様なベースラインに対して,スタイル転送とコンテンツ保存の両方において提案されたCAEの有効性を連続的に検証した。
関連論文リスト
- STEER: Unified Style Transfer with Expert Reinforcement [71.3995732115262]
STEER: Unified Style Transfer with Expert Reinforcementは、スタイル転送のための限られた並列データという課題を克服するために開発された、統一されたフレームワークである。
STEERは堅牢で、ドメイン外のデータでスタイル転送機能を維持し、様々なスタイルでほぼすべてのベースラインを超越している。
論文 参考訳(メタデータ) (2023-11-13T09:02:30Z) - Unsupervised Text Style Transfer with Deep Generative Models [12.801169425020225]
深層生成モデルを用いた教師なしテキストスタイル転送のための汎用フレームワークを提案する。
我々のフレームワークは,従来の埋め込み手法とプロトタイプ手法を2つの特別な形式として統一することができる。
また、アライメントエンコーダや逆行訓練といった分野において、これまで提案されていたテクニックを説明するための原則的な視点も提供する。
論文 参考訳(メタデータ) (2023-08-31T09:29:35Z) - Transformer-based Joint Source Channel Coding for Textual Semantic
Communication [23.431590618978948]
Space-Air-Ground-Sea統合ネットワークコールにより、ジャミングに対するより堅牢でセキュアな送信技術が要求される。
本稿では,文のモデル化とエンコードに先進的な自然言語処理技術を利用する,ロバスト伝送のためのテキスト意味伝達フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-23T08:42:05Z) - MSSRNet: Manipulating Sequential Style Representation for Unsupervised
Text Style Transfer [82.37710853235535]
教師なしのテキストスタイル転送タスクは、メインのコンテンツを保持しながらテキストをターゲットのスタイルに書き換えることを目的としている。
従来の方法では、固定サイズのベクトルを使ってテキストスタイルを規制するが、個々のトークンのスタイル強度を正確に伝達することは困難である。
提案手法は,テキスト中の各トークンに個々のスタイルベクトルを割り当てることでこの問題に対処する。
論文 参考訳(メタデータ) (2023-06-12T13:12:29Z) - UniTRec: A Unified Text-to-Text Transformer and Joint Contrastive
Learning Framework for Text-based Recommendation [17.88375225459453]
先行研究により、事前学習言語モデル(PLM)は、テキストベースのレコメンデーションの性能を高めることが示されている。
ユーザ履歴の2レベルコンテキストをモデル化するために,ローカル・グローバル・アテンション・トランスフォーマー・エンコーダの統一化を提案する。
我々のフレームワークであるUniTRecは、テキストベースの推薦を共同で強化するために、識別的マッチングスコアと候補テキストの難易度という対照的な目的を統一する。
論文 参考訳(メタデータ) (2023-05-25T06:11:31Z) - Stylized Data-to-Text Generation: A Case Study in the E-Commerce Domain [53.22419717434372]
本稿では,特定のスタイルに従ってコヒーレントテキストを生成することを目的とした新しいタスク,すなわちスタイル化されたデータ・テキスト生成を提案する。
このタスクは、生成されたテキストのロジック、構造化されていないスタイル参照、バイアスのあるトレーニングサンプルという3つの課題のため、簡単ではない。
本稿では,論理計画型データ埋め込み,マスク型スタイル埋め込み,非バイアス型スタイリングテキスト生成の3つのコンポーネントからなる,新しいスタイル付きデータ・テキスト生成モデルであるStyleD2Tを提案する。
論文 参考訳(メタデータ) (2023-05-05T03:02:41Z) - GTAE: Graph-Transformer based Auto-Encoders for Linguistic-Constrained
Text Style Transfer [119.70961704127157]
近年,非並列テキストスタイルの転送が研究の関心を集めている。
現在のアプローチでは、元の文の内容やロジックを保存できない。
文を言語グラフとしてモデル化し,グラフレベルで特徴抽出とスタイル転送を行う,グラフトランスフォーマーベースのAuto-GTAEを提案する。
論文 参考訳(メタデータ) (2021-02-01T11:08:45Z) - Contextual Text Style Transfer [73.66285813595616]
コンテキストテキストスタイル転送は、文をその周囲のコンテキストを考慮した所望のスタイルに変換することを目的としている。
本稿では,各入力文とその周辺コンテキストに対して2つの異なるエンコーダを使用するコンテキスト認識スタイル転送(CAST)モデルを提案する。
Enron-ContextとReddit-Contextという2つの新しいベンチマークが、フォーマル性と攻撃性スタイルの転送のために導入された。
論文 参考訳(メタデータ) (2020-04-30T23:01:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。