論文の概要: A Recipe For Arbitrary Text Style Transfer with Large Language Models
- arxiv url: http://arxiv.org/abs/2109.03910v1
- Date: Wed, 8 Sep 2021 20:08:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-10 14:21:53.946744
- Title: A Recipe For Arbitrary Text Style Transfer with Large Language Models
- Title(参考訳): 大規模言語モデルを用いた任意のテキストスタイル転送のためのレシピ
- Authors: Emily Reif, Daphne Ippolito, Ann Yuan, Andy Coenen, Chris
Callison-Burch, Jason Wei
- Abstract要約: 本稿では,文の書き直し作業としてスタイル転送をフレーム化するプロンプト手法を提案する。
強化されたゼロショット学習は単純で、感情のような標準スタイルのトランスファータスクだけでなく、「このメロドラマティック」や「メタファを挿入する」といった任意の変換にも有望な結果を示す。
- 参考スコア(独自算出の注目度): 21.311464494438148
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we leverage large language models (LMs) to perform zero-shot
text style transfer. We present a prompting method that we call augmented
zero-shot learning, which frames style transfer as a sentence rewriting task
and requires only a natural language instruction, without model fine-tuning or
exemplars in the target style. Augmented zero-shot learning is simple and
demonstrates promising results not just on standard style transfer tasks such
as sentiment, but also on arbitrary transformations such as "make this
melodramatic" or "insert a metaphor."
- Abstract(参考訳): 本稿では,大言語モデル(LM)を用いてゼロショットテキストスタイルの転送を行う。
文書き換えタスクとしてスタイル転送をフレーム化し,ターゲットスタイルの微調整や模範を行なわずに自然言語命令のみを必要とする拡張ゼロショット学習と呼ばれるプロンプト手法を提案する。
拡張されたゼロショット学習は単純であり、感情のような標準的なスタイル転送タスクだけでなく、"このメロドラマ的"や"メタファー"のような任意の変換にも有望な結果をもたらす。
関連論文リスト
- TinyStyler: Efficient Few-Shot Text Style Transfer with Authorship Embeddings [51.30454130214374]
本稿では,TinyStylerについて紹介する。
我々は、TinyStylerのテキスト属性スタイル転送機能について、自動評価と人的評価で評価する。
私たちのモデルはhttps://huggingface.co/tinystyler/tinystyler.comで公開されています。
論文 参考訳(メタデータ) (2024-06-21T18:41:22Z) - ParaGuide: Guided Diffusion Paraphrasers for Plug-and-Play Textual Style
Transfer [57.6482608202409]
テキストスタイル転送は、意味を保ちながらテキストのスタイル特性を変換するタスクである。
任意のスタイルに柔軟に適応できる汎用型転送のための新しい拡散型フレームワークを提案する。
本研究では,人的評価と自動評価の両面から,Enron Email Corpusの手法を検証するとともに,形式性,感情,さらにはオーサシップスタイルの伝達にも優れることを示す。
論文 参考訳(メタデータ) (2023-08-29T17:36:02Z) - StylerDALLE: Language-Guided Style Transfer Using a Vector-Quantized
Tokenizer of a Large-Scale Generative Model [64.26721402514957]
本論文では,自然言語を用いて抽象芸術スタイルを記述するスタイル転送手法であるStylerDALLEを提案する。
具体的には、非自己回帰的なトークンシーケンス変換として、言語誘導型転送タスクを定式化する。
スタイル情報を組み込むために,CLIPに基づく言語指導による強化学習戦略を提案する。
論文 参考訳(メタデータ) (2023-03-16T12:44:44Z) - Conversation Style Transfer using Few-Shot Learning [56.43383396058639]
本稿では,会話スタイルの伝達を数ショットの学習問題として紹介する。
そこで本研究では,スタイルフリー対話による課題をピボットとして解くための,コンテキスト内学習手法を提案する。
会話スタイルの転送は下流のタスクにも役立ちます。
論文 参考訳(メタデータ) (2023-02-16T15:27:00Z) - StoryTrans: Non-Parallel Story Author-Style Transfer with Discourse
Representations and Content Enhancing [73.81778485157234]
長文は通常、文よりも談話構造のような複雑な著者の言語的嗜好を含んでいる。
我々は、入力されたストーリーを特定の著者スタイルに転送する必要があるノン並列ストーリー作者スタイル転送のタスクを定式化する。
モデルが自動エンコーダに退化することを防ぐために,学習した談話表現からスタイル的特徴を引き離すための追加の学習目標を用いる。
論文 参考訳(メタデータ) (2022-08-29T08:47:49Z) - Non-Parallel Text Style Transfer with Self-Parallel Supervision [19.441780035577352]
大規模言語モデルに基づく新しいテキストスタイル転送フレームワークであるLaMerを提案する。
LaMerはまず、シーングラフで非並列データセットのほぼ並列表現をマイニングし、続いてMLEトレーニングを使用し、続いて模倣学習の改良を行い、データ内の本質的な並列性を活用する。
2つのベンチマークタスク(センチメントとフォーマル性転送)と、新たに提案された課題タスク(政治的スタンス転送)において、我々のモデルは、転送精度、コンテンツ保存および流速の質的な進歩を達成する。
論文 参考訳(メタデータ) (2022-04-18T01:38:35Z) - Reformulating Unsupervised Style Transfer as Paraphrase Generation [48.83148014000888]
パラフレーズ生成問題として教師なしスタイル転送を再構成する。
本稿では,自動生成したパラフレーズデータに基づいて,微調整事前学習言語モデルに基づく簡単な手法を提案する。
また、11種類の異なるスタイルで15万文の大規模なデータセットを収集することで、より現実的なスタイルの転送設定に転換する。
論文 参考訳(メタデータ) (2020-10-12T13:31:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。