論文の概要: TextSETTR: Few-Shot Text Style Extraction and Tunable Targeted Restyling
- arxiv url: http://arxiv.org/abs/2010.03802v3
- Date: Wed, 23 Jun 2021 06:16:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 11:14:31.207239
- Title: TextSETTR: Few-Shot Text Style Extraction and Tunable Targeted Restyling
- Title(参考訳): textsettr: 最小限のテキストスタイル抽出とチューニング可能なターゲットレスタイリング
- Authors: Parker Riley, Noah Constant, Mandy Guo, Girish Kumar, David Uthus,
Zarana Parekh
- Abstract要約: 本稿では,テキストスタイル転送問題に対する新しいアプローチを提案する。
本手法は,隣接文間の暗黙的な接続を頼りに,手軽に使用可能な非ラベルテキストを利用する。
ラベルなしAmazonでのトレーニングでは、データレビューの結果が感情伝達に競合するモデルになっていることを実証する。
- 参考スコア(独自算出の注目度): 23.60231661500702
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel approach to the problem of text style transfer. Unlike
previous approaches requiring style-labeled training data, our method makes use
of readily-available unlabeled text by relying on the implicit connection in
style between adjacent sentences, and uses labeled data only at inference time.
We adapt T5 (Raffel et al., 2020), a strong pretrained text-to-text model, to
extract a style vector from text and use it to condition the decoder to perform
style transfer. As our label-free training results in a style vector space
encoding many facets of style, we recast transfers as "targeted restyling"
vector operations that adjust specific attributes of the input while preserving
others. We demonstrate that training on unlabeled Amazon reviews data results
in a model that is competitive on sentiment transfer, even compared to models
trained fully on labeled data. Furthermore, applying our novel method to a
diverse corpus of unlabeled web text results in a single model capable of
transferring along multiple dimensions of style (dialect, emotiveness,
formality, politeness, sentiment) despite no additional training and using only
a handful of exemplars at inference time.
- Abstract(参考訳): 本稿では,テキストスタイル転送問題に対する新しいアプローチを提案する。
スタイルラベル付き学習データを必要とする従来の手法とは異なり,提案手法は隣接した文間のスタイルの暗黙的な接続に依存し,推論時にのみラベル付きデータを使用する。
我々は、強い事前訓練されたテキスト-テキストモデルであるT5(Raffel et al., 2020)に適応し、テキストからスタイルベクトルを抽出し、デコーダを用いてスタイル転送を行う。
ラベルなしのトレーニングでは,多くのスタイルのファセットを符号化したスタイルベクトル空間が生成されるので,入力の特定の属性を調整し,他の属性を保存しながら,転送を"ターゲット復元"ベクター操作として再キャストする。
ラベルなしのamazon reviewsデータに対するトレーニングの結果、ラベル付きデータで完全にトレーニングされたモデルと比較しても、感情伝達に競争力のあるモデルが得られることを実証する。
さらに,ラベルのないwebテキストの多種多様なコーパスに適用することで,追加のトレーニングを受けず,推論時にほんの一握りの例を用いても,多次元のスタイル(発話性,動機づけ性,形式性,礼儀正しく,感情)を伝達できる単一モデルが得られた。
関連論文リスト
- ParaGuide: Guided Diffusion Paraphrasers for Plug-and-Play Textual Style
Transfer [57.6482608202409]
テキストスタイル転送は、意味を保ちながらテキストのスタイル特性を変換するタスクである。
任意のスタイルに柔軟に適応できる汎用型転送のための新しい拡散型フレームワークを提案する。
本研究では,人的評価と自動評価の両面から,Enron Email Corpusの手法を検証するとともに,形式性,感情,さらにはオーサシップスタイルの伝達にも優れることを示す。
論文 参考訳(メタデータ) (2023-08-29T17:36:02Z) - MSSRNet: Manipulating Sequential Style Representation for Unsupervised
Text Style Transfer [82.37710853235535]
教師なしのテキストスタイル転送タスクは、メインのコンテンツを保持しながらテキストをターゲットのスタイルに書き換えることを目的としている。
従来の方法では、固定サイズのベクトルを使ってテキストスタイルを規制するが、個々のトークンのスタイル強度を正確に伝達することは困難である。
提案手法は,テキスト中の各トークンに個々のスタイルベクトルを割り当てることでこの問題に対処する。
論文 参考訳(メタデータ) (2023-06-12T13:12:29Z) - StylerDALLE: Language-Guided Style Transfer Using a Vector-Quantized
Tokenizer of a Large-Scale Generative Model [64.26721402514957]
本論文では,自然言語を用いて抽象芸術スタイルを記述するスタイル転送手法であるStylerDALLEを提案する。
具体的には、非自己回帰的なトークンシーケンス変換として、言語誘導型転送タスクを定式化する。
スタイル情報を組み込むために,CLIPに基づく言語指導による強化学習戦略を提案する。
論文 参考訳(メタデータ) (2023-03-16T12:44:44Z) - Conversation Style Transfer using Few-Shot Learning [56.43383396058639]
本稿では,会話スタイルの伝達を数ショットの学習問題として紹介する。
そこで本研究では,スタイルフリー対話による課題をピボットとして解くための,コンテキスト内学習手法を提案する。
会話スタイルの転送は下流のタスクにも役立ちます。
論文 参考訳(メタデータ) (2023-02-16T15:27:00Z) - StyleFlow: Disentangle Latent Representations via Normalizing Flow for
Unsupervised Text Style Transfer [5.439842512864442]
スタイル転送は、その内容を保持しながら文のスタイルを変更することを目的としている。
本稿では,コンテンツ保存性を高めるために,新しいアンタングル型スタイル転送モデルであるStyleFlowを提案する。
論文 参考訳(メタデータ) (2022-12-19T17:59:18Z) - Exploring Contextual Word-level Style Relevance for Unsupervised Style
Transfer [60.07283363509065]
教師なしのスタイル転送は、元のコンテンツを保持しながら入力文のスタイルを変更することを目的としている。
本稿では,各出力語がターゲットスタイルに関連性があることを活かした,新たな注目シーケンス・ツー・シーケンスモデルを提案する。
実験結果から,提案手法は転送精度とコンテンツ保存の両面から,最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-05-05T10:24:28Z) - Contextual Text Style Transfer [73.66285813595616]
コンテキストテキストスタイル転送は、文をその周囲のコンテキストを考慮した所望のスタイルに変換することを目的としている。
本稿では,各入力文とその周辺コンテキストに対して2つの異なるエンコーダを使用するコンテキスト認識スタイル転送(CAST)モデルを提案する。
Enron-ContextとReddit-Contextという2つの新しいベンチマークが、フォーマル性と攻撃性スタイルの転送のために導入された。
論文 参考訳(メタデータ) (2020-04-30T23:01:12Z) - ST$^2$: Small-data Text Style Transfer via Multi-task Meta-Learning [14.271083093944753]
テキストスタイルの転送は、コンテンツを保存しながら、あるスタイルの文を別のスタイルに言い換えることを目的としている。
並列トレーニングデータがないため、最先端の手法は教師なしであり、コンテンツを共有する大規模なデータセットに依存している。
そこで本研究では,任意のテキストスタイル間を移動するためのメタラーニングフレームワークを開発した。
論文 参考訳(メタデータ) (2020-04-24T13:36:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。