論文の概要: Prompt-and-Rerank: A Method for Zero-Shot and Few-Shot Arbitrary Textual
Style Transfer with Small Language Models
- arxiv url: http://arxiv.org/abs/2205.11503v1
- Date: Mon, 23 May 2022 17:57:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 19:11:56.088422
- Title: Prompt-and-Rerank: A Method for Zero-Shot and Few-Shot Arbitrary Textual
Style Transfer with Small Language Models
- Title(参考訳): Prompt-and-Rerank:小言語モデルを用いたゼロショットとFew-Shot任意テキストスタイル転送の一手法
- Authors: Mirac Suzgun, Luke Melas-Kyriazi, Dan Jurafsky
- Abstract要約: 任意のテキストスタイル転送(TST)手法を提案する。
提案手法であるPrompt-and-Rerankは,TSTタスクの数学的定式化に基づいている。
実験的に,本手法は,小規模な事前学習型言語モデルに対して,最先端の大規模モデルと同等の動作を可能にする。
- 参考スコア(独自算出の注目度): 27.454582992694974
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a method for arbitrary textual style transfer (TST)--the task of
transforming a text into any given style--utilizing general-purpose pre-trained
language models. Our method, Prompt-and-Rerank, is based on a mathematical
formulation of the TST task, decomposing it into three constituent components:
textual similarity, target style strength, and fluency. Specifically, our
method first uses zero-shot or few-shot prompting to obtain a set of candidate
generations in the target style, and then re-ranks these candidates according
to a combination of the three components above. Empirically, our method enables
small pre-trained language models to perform on par with state-of-the-art
large-scale models while consuming two orders of magnitude less compute and
memory. Finally, we conduct a systematic investigation of the effect of model
size and prompt design (e.g., prompt paraphrasing and delimiter-pair choice) on
style transfer quality across seven diverse textual style transfer datasets.
- Abstract(参考訳): テキストを任意のスタイルに変換するタスクである任意のテキストスタイル転送(tst)の手法を提案する。
提案手法であるPrompt-and-Rerankは,TSTタスクの数学的定式化に基づいて,テキスト類似性,ターゲットスタイル強度,流速の3つの構成要素に分解する。
具体的には、まずゼロショットまたは少数ショットプロンプトを用いて、ターゲットスタイルの候補生成のセットを取得し、上で述べた3つのコンポーネントの組み合わせに従ってこれらの候補を再ランク付けする。
実験的に,本手法は,2桁の計算とメモリを消費しながら,最先端の大規模モデルと同等に動作可能な,訓練済みの小さな言語モデルを実現する。
最後に、モデルサイズとプロンプト設計(例えば、パラフレージングとデリミタペア選択)が、7種類のテキストスタイル転送データセットにおけるスタイル転送品質に与える影響を体系的に調査する。
関連論文リスト
- SETTP: Style Extraction and Tunable Inference via Dual-level Transferable Prompt Learning [22.04285529067442]
デュアルレベルトランスファーブル・プロンプト学習によるスタイル抽出とチューナブル推論を提案する。
SETTPは、高リソーススタイル転送から基本スタイルの特徴を含むソーススタイルレベルのプロンプトを学習する。
実験によると、SETTPは最先端の手法に匹敵するパフォーマンスを達成するためにデータボリュームの1/20しか必要としない。
論文 参考訳(メタデータ) (2024-07-22T11:34:48Z) - TinyStyler: Efficient Few-Shot Text Style Transfer with Authorship Embeddings [51.30454130214374]
本稿では,TinyStylerについて紹介する。
我々は、TinyStylerのテキスト属性スタイル転送機能について、自動評価と人的評価で評価する。
私たちのモデルはhttps://huggingface.co/tinystyler/tinystyler.comで公開されています。
論文 参考訳(メタデータ) (2024-06-21T18:41:22Z) - Prefix-Tuning Based Unsupervised Text Style Transfer [29.86587278794342]
教師なしテキストスタイル転送は、その内容を保持しながら入力文のスタイルを変更することができる生成モデルを訓練することを目的としている。
本稿では,事前学習された強力な大規模言語モデルを用いて,教師なしテキストスタイル転送のためのプレフィックス・チューニング方式を提案する。
論文 参考訳(メタデータ) (2023-10-23T06:13:08Z) - Specializing Small Language Models towards Complex Style Transfer via
Latent Attribute Pre-Training [29.143887057933327]
複雑なテキストスタイルの転送タスクの概念を導入し、2つの広く適用可能なシナリオに基づいて複雑なテキストデータセットを構築した。
我々のデータセットは、ゲームGenshin Impactの700文と1000文からなる、この種の最初の大規模データセットである。
論文 参考訳(メタデータ) (2023-09-19T21:01:40Z) - Don't lose the message while paraphrasing: A study on content preserving
style transfer [61.38460184163704]
スタイル伝達研究の現実的な応用には,コンテンツ保存が不可欠である。
形式性伝達領域の例において、様々なスタイル転送モデルを比較する。
我々は,スタイル伝達のための最先端技術について,精密な比較研究を行っている。
論文 参考訳(メタデータ) (2023-08-17T15:41:08Z) - MSSRNet: Manipulating Sequential Style Representation for Unsupervised
Text Style Transfer [82.37710853235535]
教師なしのテキストスタイル転送タスクは、メインのコンテンツを保持しながらテキストをターゲットのスタイルに書き換えることを目的としている。
従来の方法では、固定サイズのベクトルを使ってテキストスタイルを規制するが、個々のトークンのスタイル強度を正確に伝達することは困難である。
提案手法は,テキスト中の各トークンに個々のスタイルベクトルを割り当てることでこの問題に対処する。
論文 参考訳(メタデータ) (2023-06-12T13:12:29Z) - Stylized Data-to-Text Generation: A Case Study in the E-Commerce Domain [53.22419717434372]
本稿では,特定のスタイルに従ってコヒーレントテキストを生成することを目的とした新しいタスク,すなわちスタイル化されたデータ・テキスト生成を提案する。
このタスクは、生成されたテキストのロジック、構造化されていないスタイル参照、バイアスのあるトレーニングサンプルという3つの課題のため、簡単ではない。
本稿では,論理計画型データ埋め込み,マスク型スタイル埋め込み,非バイアス型スタイリングテキスト生成の3つのコンポーネントからなる,新しいスタイル付きデータ・テキスト生成モデルであるStyleD2Tを提案する。
論文 参考訳(メタデータ) (2023-05-05T03:02:41Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。