論文の概要: Exploring Contextual Word-level Style Relevance for Unsupervised Style
Transfer
- arxiv url: http://arxiv.org/abs/2005.02049v2
- Date: Fri, 11 Mar 2022 07:47:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 13:12:49.997899
- Title: Exploring Contextual Word-level Style Relevance for Unsupervised Style
Transfer
- Title(参考訳): 教師なしスタイル伝達のための文脈的単語レベルスタイル関係の探索
- Authors: Chulun Zhou, Liangyu Chen, Jiachen Liu, Xinyan Xiao, Jinsong Su, Sheng
Guo, Hua Wu
- Abstract要約: 教師なしのスタイル転送は、元のコンテンツを保持しながら入力文のスタイルを変更することを目的としている。
本稿では,各出力語がターゲットスタイルに関連性があることを活かした,新たな注目シーケンス・ツー・シーケンスモデルを提案する。
実験結果から,提案手法は転送精度とコンテンツ保存の両面から,最先端の性能を達成できることが示唆された。
- 参考スコア(独自算出の注目度): 60.07283363509065
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised style transfer aims to change the style of an input sentence
while preserving its original content without using parallel training data. In
current dominant approaches, owing to the lack of fine-grained control on the
influence from the target style,they are unable to yield desirable output
sentences. In this paper, we propose a novel attentional sequence-to-sequence
(Seq2seq) model that dynamically exploits the relevance of each output word to
the target style for unsupervised style transfer. Specifically, we first
pretrain a style classifier, where the relevance of each input word to the
original style can be quantified via layer-wise relevance propagation. In a
denoising auto-encoding manner, we train an attentional Seq2seq model to
reconstruct input sentences and repredict word-level previously-quantified
style relevance simultaneously. In this way, this model is endowed with the
ability to automatically predict the style relevance of each output word. Then,
we equip the decoder of this model with a neural style component to exploit the
predicted wordlevel style relevance for better style transfer. Particularly, we
fine-tune this model using a carefully-designed objective function involving
style transfer, style relevance consistency, content preservation and fluency
modeling loss terms. Experimental results show that our proposed model achieves
state-of-the-art performance in terms of both transfer accuracy and content
preservation.
- Abstract(参考訳): 教師なしスタイル転送は、並列トレーニングデータを用いることなく、元のコンテンツを保存しながら入力文のスタイルを変更することを目的としている。
現在の支配的なアプローチでは、ターゲットスタイルの影響に対するきめ細かい制御が欠如しているため、望ましい出力文を得ることができない。
本稿では,教師なしのスタイル転送において,各出力語とターゲットスタイルとの関連性を動的に活用する,新しいアテンショナルシーケンス・ツー・シーケンス(Seq2seq)モデルを提案する。
具体的には、まず、各入力単語の元のスタイルへの関連性を階層的関連伝播によって定量化できるスタイル分類器を事前学習する。
注意型seq2seqモデルを訓練し、入力文を再構成し、単語レベルの事前定量化スタイルを同時に再現する。
このようにして、このモデルは、各出力ワードのスタイル関連性を自動で予測する能力を備えている。
そこで我々は,このモデルのデコーダにニューラルスタイルコンポーネントを装備し,予測されたワードレベルスタイルの関連性を利用して,より優れたスタイル転送を行う。
特に, スタイル伝達, スタイル適合性一貫性, コンテンツ保存, フラレンシーモデリング損失項を含む, 注意深く設計された目的関数を用いて, このモデルを微調整する。
実験の結果,提案モデルは転送精度とコンテンツ保存の両面で最先端の性能を実現することがわかった。
関連論文リスト
- Prefix-Tuning Based Unsupervised Text Style Transfer [29.86587278794342]
教師なしテキストスタイル転送は、その内容を保持しながら入力文のスタイルを変更することができる生成モデルを訓練することを目的としている。
本稿では,事前学習された強力な大規模言語モデルを用いて,教師なしテキストスタイル転送のためのプレフィックス・チューニング方式を提案する。
論文 参考訳(メタデータ) (2023-10-23T06:13:08Z) - ParaGuide: Guided Diffusion Paraphrasers for Plug-and-Play Textual Style
Transfer [57.6482608202409]
テキストスタイル転送は、意味を保ちながらテキストのスタイル特性を変換するタスクである。
任意のスタイルに柔軟に適応できる汎用型転送のための新しい拡散型フレームワークを提案する。
本研究では,人的評価と自動評価の両面から,Enron Email Corpusの手法を検証するとともに,形式性,感情,さらにはオーサシップスタイルの伝達にも優れることを示す。
論文 参考訳(メタデータ) (2023-08-29T17:36:02Z) - Conversation Style Transfer using Few-Shot Learning [56.43383396058639]
本稿では,会話スタイルの伝達を数ショットの学習問題として紹介する。
そこで本研究では,スタイルフリー対話による課題をピボットとして解くための,コンテキスト内学習手法を提案する。
会話スタイルの転送は下流のタスクにも役立ちます。
論文 参考訳(メタデータ) (2023-02-16T15:27:00Z) - StyleFlow: Disentangle Latent Representations via Normalizing Flow for
Unsupervised Text Style Transfer [5.439842512864442]
スタイル転送は、その内容を保持しながら文のスタイルを変更することを目的としている。
本稿では,コンテンツ保存性を高めるために,新しいアンタングル型スタイル転送モデルであるStyleFlowを提案する。
論文 参考訳(メタデータ) (2022-12-19T17:59:18Z) - StoryTrans: Non-Parallel Story Author-Style Transfer with Discourse
Representations and Content Enhancing [73.81778485157234]
長文は通常、文よりも談話構造のような複雑な著者の言語的嗜好を含んでいる。
我々は、入力されたストーリーを特定の著者スタイルに転送する必要があるノン並列ストーリー作者スタイル転送のタスクを定式化する。
モデルが自動エンコーダに退化することを防ぐために,学習した談話表現からスタイル的特徴を引き離すための追加の学習目標を用いる。
論文 参考訳(メタデータ) (2022-08-29T08:47:49Z) - GTAE: Graph-Transformer based Auto-Encoders for Linguistic-Constrained
Text Style Transfer [119.70961704127157]
近年,非並列テキストスタイルの転送が研究の関心を集めている。
現在のアプローチでは、元の文の内容やロジックを保存できない。
文を言語グラフとしてモデル化し,グラフレベルで特徴抽出とスタイル転送を行う,グラフトランスフォーマーベースのAuto-GTAEを提案する。
論文 参考訳(メタデータ) (2021-02-01T11:08:45Z) - TextSETTR: Few-Shot Text Style Extraction and Tunable Targeted Restyling [23.60231661500702]
本稿では,テキストスタイル転送問題に対する新しいアプローチを提案する。
本手法は,隣接文間の暗黙的な接続を頼りに,手軽に使用可能な非ラベルテキストを利用する。
ラベルなしAmazonでのトレーニングでは、データレビューの結果が感情伝達に競合するモデルになっていることを実証する。
論文 参考訳(メタデータ) (2020-10-08T07:06:38Z) - Contextual Text Style Transfer [73.66285813595616]
コンテキストテキストスタイル転送は、文をその周囲のコンテキストを考慮した所望のスタイルに変換することを目的としている。
本稿では,各入力文とその周辺コンテキストに対して2つの異なるエンコーダを使用するコンテキスト認識スタイル転送(CAST)モデルを提案する。
Enron-ContextとReddit-Contextという2つの新しいベンチマークが、フォーマル性と攻撃性スタイルの転送のために導入された。
論文 参考訳(メタデータ) (2020-04-30T23:01:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。