論文の概要: Learning to Generate Text in Arbitrary Writing Styles
- arxiv url: http://arxiv.org/abs/2312.17242v1
- Date: Thu, 28 Dec 2023 18:58:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 14:33:34.815668
- Title: Learning to Generate Text in Arbitrary Writing Styles
- Title(参考訳): 任意文体におけるテキスト生成の学習
- Authors: Aleem Khan, Andrew Wang, Sophia Hager, Nicholas Andrews
- Abstract要約: アシスタントを書くようなアプリケーションでは、言語モデルが著者固有のスタイルでテキストを作成することが望ましい。
命令調整型言語モデルでは,プロンプトで示される著者固有のスタイルの再現に苦慮していることがわかった。
そこで我々は,テクスチャ的特徴を捉えた対照的に訓練された表現を用いて,ターゲットスタイルのテキストを生成するための言語モデルを提案する。
- 参考スコア(独自算出の注目度): 6.7308816341849695
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prior work in style-controlled text generation has focused on tasks such as
emulating the style of prolific literary authors, producing formal or informal
text, and the degree of toxicity of generated text. Plentiful demonstrations of
these styles are available, and as a result modern language models are often
able to emulate them, either via prompting or discriminative control. However,
in applications such as writing assistants, it is desirable for language models
to produce text in an author-specific style on the basis of a small writing
sample. We find that instruction-tuned language models can struggle to
reproduce author-specific style demonstrated in a prompt. Instead, we propose
to guide a language model to generate text in a target style using
contrastively-trained representations that capture stylometric features. A
central challenge in doing so is that an author's writing is characterized by
surprising token choices under a generic language model. To reconcile this
tension, we combine generative re-scoring to achieve an author-specific model,
with discriminative control to ensure style consistency at the sequence-level.
The combination of these approaches is found to be particularly effective at
adhering to an author-specific style in a variety of conditions, including
unconditional generation and style transfer, and is applicable to any
underlying language model without requiring fine-tuning.
- Abstract(参考訳): 文体制御テキスト生成における以前の研究は、多作文学作家のスタイルをエミュレートしたり、形式的あるいは非公式なテキストを作成したり、生成されたテキストの毒性の度合いに重点を置いてきた。
これらのスタイルの豊富なデモンストレーションが利用可能であり、その結果、現代の言語モデルは、プロンプトまたは判別制御によって、それらをエミュレートすることができる。
しかし、アシスタントを書くようなアプリケーションでは、小さな記述サンプルに基づいて、言語モデルが著者特有のスタイルでテキストを生成することが望ましい。
命令を調整した言語モデルでは,プロンプトで示す著者固有のスタイルを再現するのに苦労する場合がある。
そこで我々は,テクスチャ的特徴を捉えた対照的に訓練された表現を用いて,ターゲットスタイルのテキストを生成するための言語モデルを提案する。
そうする上での中心的な課題は、著者の著作がジェネリック言語モデルの下で驚くほどのトークン選択によって特徴づけられることである。
この緊張を和らげるために、生成的再スコーリングと識別制御を組み合わせることで、シーケンスレベルでのスタイル一貫性を確保する。
これらのアプローチの組み合わせは、無条件生成やスタイル転送を含む様々な条件下で著者固有のスタイルに固執する上で特に効果的であり、微調整を必要とせず、基礎となる言語モデルに適用できる。
関連論文リスト
- Capturing Style in Author and Document Representation [4.323709559692927]
著者と文書の埋め込みをスタイリスティックな制約で学習する新しいアーキテクチャを提案する。
本稿では,Gutenbergプロジェクトから抽出した文芸コーパス,Blog Authorship,IMDb62の3つのデータセットについて評価を行った。
論文 参考訳(メタデータ) (2024-07-18T10:01:09Z) - TinyStyler: Efficient Few-Shot Text Style Transfer with Authorship Embeddings [51.30454130214374]
本稿では,TinyStylerについて紹介する。
我々は、TinyStylerのテキスト属性スタイル転送機能について、自動評価と人的評価で評価する。
私たちのモデルはhttps://huggingface.co/tinystyler/tinystyler.comで公開されています。
論文 参考訳(メタデータ) (2024-06-21T18:41:22Z) - ParaGuide: Guided Diffusion Paraphrasers for Plug-and-Play Textual Style
Transfer [57.6482608202409]
テキストスタイル転送は、意味を保ちながらテキストのスタイル特性を変換するタスクである。
任意のスタイルに柔軟に適応できる汎用型転送のための新しい拡散型フレームワークを提案する。
本研究では,人的評価と自動評価の両面から,Enron Email Corpusの手法を検証するとともに,形式性,感情,さらにはオーサシップスタイルの伝達にも優れることを示す。
論文 参考訳(メタデータ) (2023-08-29T17:36:02Z) - Visual Captioning at Will: Describing Images and Videos Guided by a Few
Stylized Sentences [49.66987347397398]
Few-Shot Stylized Visual Captioningは,任意のスタイルでキャプションを生成することを目的としている。
本稿では,条件付きエンコーダ-デコーダ言語モデルとビジュアルプロジェクションモジュールを用いたFS-StyleCapというフレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-31T04:26:01Z) - WordStylist: Styled Verbatim Handwritten Text Generation with Latent
Diffusion Models [8.334487584550185]
単語レベルに基づくテキスト・テキスト・コンテンツ・イメージ生成のための遅延拡散に基づく手法を提案する。
提案手法は,異なる書き手スタイルからリアルな単語画像のサンプルを生成することができる。
提案モデルでは,美的満足度の高いサンプルを作成し,テキスト認識性能の向上に寄与し,類似の文字検索スコアを実データとして得られることを示す。
論文 参考訳(メタデータ) (2023-03-29T10:19:26Z) - Handwritten Text Generation from Visual Archetypes [25.951540903019467]
Few-Shotスタイルの手書きテキスト生成のためのTransformerベースのモデルを提案する。
我々は,大規模な合成データセット上で,特定の事前学習を活用することで,目に見えない作者の書跡の堅牢な表現を得る。
論文 参考訳(メタデータ) (2023-03-27T14:58:20Z) - StylerDALLE: Language-Guided Style Transfer Using a Vector-Quantized
Tokenizer of a Large-Scale Generative Model [64.26721402514957]
本論文では,自然言語を用いて抽象芸術スタイルを記述するスタイル転送手法であるStylerDALLEを提案する。
具体的には、非自己回帰的なトークンシーケンス変換として、言語誘導型転送タスクを定式化する。
スタイル情報を組み込むために,CLIPに基づく言語指導による強化学習戦略を提案する。
論文 参考訳(メタデータ) (2023-03-16T12:44:44Z) - StoryTrans: Non-Parallel Story Author-Style Transfer with Discourse
Representations and Content Enhancing [73.81778485157234]
長文は通常、文よりも談話構造のような複雑な著者の言語的嗜好を含んでいる。
我々は、入力されたストーリーを特定の著者スタイルに転送する必要があるノン並列ストーリー作者スタイル転送のタスクを定式化する。
モデルが自動エンコーダに退化することを防ぐために,学習した談話表現からスタイル的特徴を引き離すための追加の学習目標を用いる。
論文 参考訳(メタデータ) (2022-08-29T08:47:49Z) - Incorporating Stylistic Lexical Preferences in Generative Language
Models [10.62343151429147]
本稿では,著者の連続的な多次元語彙的嗜好を生成言語モデルに組み込むことにより,特定の著者属性を誘導する手法を提案する。
実験により,提案手法は,対象とする著者の語彙的スタイルと顕著に一致したテキストを生成することができることを示した。
論文 参考訳(メタデータ) (2020-10-22T09:24:05Z) - Stylized Dialogue Response Generation Using Stylized Unpaired Texts [63.69880979112312]
本稿では,文中に埋め込まれた文体の特徴を抽出する文体化対話生成手法を提案する。
提案手法は,与えられたコンテキストに忠実で,対象のスタイルに適合する対話応答を生成できる。
論文 参考訳(メタデータ) (2020-09-27T01:04:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。