論文の概要: TinyStyler: Efficient Few-Shot Text Style Transfer with Authorship Embeddings
- arxiv url: http://arxiv.org/abs/2406.15586v2
- Date: Thu, 07 Nov 2024 17:56:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-08 19:36:31.065185
- Title: TinyStyler: Efficient Few-Shot Text Style Transfer with Authorship Embeddings
- Title(参考訳): TinyStyler: オーサリング埋め込みによるテキストスタイルの効率的な転送
- Authors: Zachary Horvitz, Ajay Patel, Kanishk Singh, Chris Callison-Burch, Kathleen McKeown, Zhou Yu,
- Abstract要約: 本稿では,TinyStylerについて紹介する。
我々は、TinyStylerのテキスト属性スタイル転送機能について、自動評価と人的評価で評価する。
私たちのモデルはhttps://huggingface.co/tinystyler/tinystyler.comで公開されています。
- 参考スコア(独自算出の注目度): 51.30454130214374
- License:
- Abstract: The goal of text style transfer is to transform the style of texts while preserving their original meaning, often with only a few examples of the target style. Existing style transfer methods generally rely on the few-shot capabilities of large language models or on complex controllable text generation approaches that are inefficient and underperform on fluency metrics. We introduce TinyStyler, a lightweight but effective approach, which leverages a small language model (800M params) and pre-trained authorship embeddings to perform efficient, few-shot text style transfer. We evaluate on the challenging task of authorship style transfer and find TinyStyler outperforms strong approaches such as GPT-4. We also evaluate TinyStyler's ability to perform text attribute style transfer (formal $\leftrightarrow$ informal) with automatic and human evaluations and find that the approach outperforms recent controllable text generation methods. Our model has been made publicly available at https://huggingface.co/tinystyler/tinystyler .
- Abstract(参考訳): テキストスタイル転送の目標は、本来の意味を保ちながらテキストスタイルを変換することである。
既存のスタイル転送手法は一般に、大きな言語モデルの少数ショット機能や、非効率で流用度合いの低い複雑な制御可能なテキスト生成アプローチに依存している。
我々はTinyStylerを紹介した。TinyStylerは軽量で効果的なアプローチで、小さな言語モデル(800Mparams)と事前訓練されたオーサシップ埋め込みを利用して、効率よく、少数のテキストスタイルの転送を行う。
GPT-4 のような強靭なアプローチよりも TinyStyler の方が優れていることを示す。
また、TinyStylerのテキスト属性スタイル転送機能(形式的$\leftrightarrow$official)を自動的および人為的評価で評価し、最近の制御可能なテキスト生成方法よりも優れていることを示す。
私たちのモデルはhttps://huggingface.co/tinystyler/tinystyler で公開されています。
関連論文リスト
- Authorship Style Transfer with Policy Optimization [26.34892894935038]
オーサシップスタイルの転送は、ソースの本来の意味を保ちながら、指定されたテキストを指定されたターゲットに書き換えることを目的としている。
既存のアプローチでは、モデルトレーニングのための多くのターゲットスタイルの例が利用可能になっている。
論文 参考訳(メタデータ) (2024-03-12T19:34:54Z) - STEER: Unified Style Transfer with Expert Reinforcement [71.3995732115262]
STEER: Unified Style Transfer with Expert Reinforcementは、スタイル転送のための限られた並列データという課題を克服するために開発された、統一されたフレームワークである。
STEERは堅牢で、ドメイン外のデータでスタイル転送機能を維持し、様々なスタイルでほぼすべてのベースラインを超越している。
論文 参考訳(メタデータ) (2023-11-13T09:02:30Z) - ParaGuide: Guided Diffusion Paraphrasers for Plug-and-Play Textual Style
Transfer [57.6482608202409]
テキストスタイル転送は、意味を保ちながらテキストのスタイル特性を変換するタスクである。
任意のスタイルに柔軟に適応できる汎用型転送のための新しい拡散型フレームワークを提案する。
本研究では,人的評価と自動評価の両面から,Enron Email Corpusの手法を検証するとともに,形式性,感情,さらにはオーサシップスタイルの伝達にも優れることを示す。
論文 参考訳(メタデータ) (2023-08-29T17:36:02Z) - MSSRNet: Manipulating Sequential Style Representation for Unsupervised
Text Style Transfer [82.37710853235535]
教師なしのテキストスタイル転送タスクは、メインのコンテンツを保持しながらテキストをターゲットのスタイルに書き換えることを目的としている。
従来の方法では、固定サイズのベクトルを使ってテキストスタイルを規制するが、個々のトークンのスタイル強度を正確に伝達することは困難である。
提案手法は,テキスト中の各トークンに個々のスタイルベクトルを割り当てることでこの問題に対処する。
論文 参考訳(メタデータ) (2023-06-12T13:12:29Z) - StylerDALLE: Language-Guided Style Transfer Using a Vector-Quantized
Tokenizer of a Large-Scale Generative Model [64.26721402514957]
本論文では,自然言語を用いて抽象芸術スタイルを記述するスタイル転送手法であるStylerDALLEを提案する。
具体的には、非自己回帰的なトークンシーケンス変換として、言語誘導型転送タスクを定式化する。
スタイル情報を組み込むために,CLIPに基づく言語指導による強化学習戦略を提案する。
論文 参考訳(メタデータ) (2023-03-16T12:44:44Z) - Conversation Style Transfer using Few-Shot Learning [56.43383396058639]
本稿では,会話スタイルの伝達を数ショットの学習問題として紹介する。
そこで本研究では,スタイルフリー対話による課題をピボットとして解くための,コンテキスト内学習手法を提案する。
会話スタイルの転送は下流のタスクにも役立ちます。
論文 参考訳(メタデータ) (2023-02-16T15:27:00Z) - SimpleStyle: An Adaptable Style Transfer Approach [6.993665837027786]
本稿では,最小限かつ効果的なスタイル変換手法であるSimpleStyleについて述べる。
我々はSimpleStyleを用いて、現実世界のテキストデータに現れる幅広いテキスト属性をソーシャルネットワークから転送する。
学生モデルにSimpleStyleの出力を生成することで,1つのgreedy-decodedサンプルだけで等価品質のスタイル転送を行うシステムを実現することを示す。
論文 参考訳(メタデータ) (2022-12-20T18:12:49Z) - ST$^2$: Small-data Text Style Transfer via Multi-task Meta-Learning [14.271083093944753]
テキストスタイルの転送は、コンテンツを保存しながら、あるスタイルの文を別のスタイルに言い換えることを目的としている。
並列トレーニングデータがないため、最先端の手法は教師なしであり、コンテンツを共有する大規模なデータセットに依存している。
そこで本研究では,任意のテキストスタイル間を移動するためのメタラーニングフレームワークを開発した。
論文 参考訳(メタデータ) (2020-04-24T13:36:38Z) - Fair Transfer of Multiple Style Attributes in Text [26.964711594103566]
複数のスタイルの転送を連続的に行うことで、複数のスタイルの転送が達成できないことを示す。
与えられたテキストで複数のスタイル属性を公平に転送するためのニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-01-18T15:38:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。