論文の概要: Low-Resource Authorship Style Transfer with In-Context Learning
- arxiv url: http://arxiv.org/abs/2212.08986v1
- Date: Sun, 18 Dec 2022 01:57:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 16:10:34.334506
- Title: Low-Resource Authorship Style Transfer with In-Context Learning
- Title(参考訳): in-context learningを用いた低リソースオーサシップスタイル転送
- Authors: Ajay Patel, Nicholas Andrews, Chris Callison-Burch
- Abstract要約: 著者のスタイル転送は、ターゲットの著者のスタイルにマッチするようにテキストのスタイルを変更することを含む。
本稿では,低リソースオーサシップ方式の転送タスクの自動評価手法を提案する。
- 参考スコア(独自算出の注目度): 23.643212830427743
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Authorship style transfer involves altering the style of text to match the
style of some target author whilst preserving the semantic meaning of the
original text. Existing approaches to unsupervised authorship style transfer
like STRAP have largely focused on style transfer for target authors with many
examples of their writing style through books, speeches, or other published
works (Krishna et al., 2020). Due to this high-resource training data
requirement (often greater than 100,000 words), these approaches are often only
useful for style transfer to the style of published authors, politicians, or
other well-known figures and authorship styles. In this paper, we attempt to
perform low-resource authorship style transfer, a more challenging class of
authorship style transfer where only a limited amount of text in the target
author's style may exist. In our experiments, we specifically choose source and
target authors from Reddit to perform style transfer over their Reddit posts,
limiting ourselves to just 16 posts (on average $\approx$ 500 words) of the
target author's style. We then propose a method for automatic evaluation on the
low-resource authorship style transfer task utilizing authorship and style
representation embeddings (Rivera-Soto et al., 2021; Wegmann et al., 2022). We
evaluate our style transferred outputs with the proposed automatic evaluation
method and find that our method, STYLL, is able to outperform STRAP and a
comprehensive set of baselines.
- Abstract(参考訳): 著者のスタイル転送は、原文の意味を保ちながら、対象とする著者のスタイルに合わせてテキストのスタイルを変更することを含む。
STRAPのような教師なしの著作者スタイル移行への既存のアプローチは、書籍、スピーチ、その他の出版物(Krishna et al., 2020)を通じて、対象とする著作者のスタイル移行に大きく焦点を当てている。
この高リソースのトレーニングデータ要求(しばしば10000語以上)のため、これらのアプローチは出版者、政治家、その他の著名な人物や著作者スタイルへのスタイル移行にのみ有用である。
本稿では,対象著者のスタイルに限定されたテキストしか存在しないような低リソースの著者スタイル転送を試み,より挑戦的な著者スタイル転送のクラスを提案する。
私たちの実験では、Redditのソースとターゲットの作者を選択して、Redditの投稿に対してスタイルの転送を行い、ターゲットの著者のスタイルのたった16の投稿(平均$\approx$500ワード)に制限します。
次に、著者とスタイル表現の埋め込みを利用した低リソースオーサリングスタイル転送タスクの自動評価手法を提案する(Rivera-Soto et al., 2021; Wegmann et al., 2022)。
提案した自動評価手法により,提案方式の変換出力を評価した結果,STYLLはSTRAPや総合的なベースラインよりも優れていることがわかった。
関連論文リスト
- TinyStyler: Efficient Few-Shot Text Style Transfer with Authorship Embeddings [51.30454130214374]
本稿では,TinyStylerについて紹介する。
我々は、TinyStylerのテキスト属性スタイル転送機能について、自動評価と人的評価で評価する。
私たちのモデルはhttps://huggingface.co/tinystyler/tinystyler.comで公開されています。
論文 参考訳(メタデータ) (2024-06-21T18:41:22Z) - Authorship Style Transfer with Policy Optimization [26.34892894935038]
オーサシップスタイルの転送は、ソースの本来の意味を保ちながら、指定されたテキストを指定されたターゲットに書き換えることを目的としている。
既存のアプローチでは、モデルトレーニングのための多くのターゲットスタイルの例が利用可能になっている。
論文 参考訳(メタデータ) (2024-03-12T19:34:54Z) - STEER: Unified Style Transfer with Expert Reinforcement [71.3995732115262]
STEER: Unified Style Transfer with Expert Reinforcementは、スタイル転送のための限られた並列データという課題を克服するために開発された、統一されたフレームワークである。
STEERは堅牢で、ドメイン外のデータでスタイル転送機能を維持し、様々なスタイルでほぼすべてのベースラインを超越している。
論文 参考訳(メタデータ) (2023-11-13T09:02:30Z) - ParaGuide: Guided Diffusion Paraphrasers for Plug-and-Play Textual Style
Transfer [57.6482608202409]
テキストスタイル転送は、意味を保ちながらテキストのスタイル特性を変換するタスクである。
任意のスタイルに柔軟に適応できる汎用型転送のための新しい拡散型フレームワークを提案する。
本研究では,人的評価と自動評価の両面から,Enron Email Corpusの手法を検証するとともに,形式性,感情,さらにはオーサシップスタイルの伝達にも優れることを示す。
論文 参考訳(メタデータ) (2023-08-29T17:36:02Z) - Can Authorship Representation Learning Capture Stylistic Features? [5.812943049068866]
本研究では,サロゲートオーサシップ予測タスクで学習した表現が,実際に書体に敏感であることを示す。
結果として、著者の表現は、時間とともに話題が漂うような、ある種のデータシフトに対して堅牢であることが期待できる。
我々の発見は、スタイル転送のようなスタイル表現を必要とする下流アプリケーションへの扉を開くかもしれない。
論文 参考訳(メタデータ) (2023-08-22T15:10:45Z) - PART: Pre-trained Authorship Representation Transformer [64.78260098263489]
文書を書く著者は、語彙、レジストリ、句読点、ミススペル、絵文字の使用など、テキスト内での識別情報をインプリントする。
以前の作品では、手作りのフィーチャや分類タスクを使用して著者モデルをトレーニングし、ドメイン外の著者に対するパフォーマンスの低下につながった。
セマンティクスの代わりにtextbfauthorship の埋め込みを学習するために、対照的に訓練されたモデルを提案する。
論文 参考訳(メタデータ) (2022-09-30T11:08:39Z) - From Theories on Styles to their Transfer in Text: Bridging the Gap with
a Hierarchical Survey [10.822011920177408]
スタイル転送は、既存のテキストを書き換え、望ましいスタイル特性を示すパラフレーズを作成することを目的としている。
少数の調査では、この分野の方法論的な概要が示されているが、研究者が特定のスタイルにフォーカスするのを支援していない。
それらを階層に整理し、それぞれの定義の課題を強調し、現在の研究状況のギャップを指摘します。
論文 参考訳(メタデータ) (2021-10-29T15:53:06Z) - Few-shot Controllable Style Transfer for Low-Resource Settings: A Study
in Indian Languages [13.980482277351523]
スタイル転送は、その内容を保持しながら入力文をターゲットスタイルに書き換えるタスクである。
パラフレーズ間のスタイリスティックな差異をモデル化した新しい手法により,数ショットスタイルのトランスファーの最先端を推し進める。
本モデルでは,5言語にまたがる形式性伝達およびコード混合付加における性能と出力の多様性を2~3倍に向上する。
論文 参考訳(メタデータ) (2021-10-14T14:16:39Z) - DeepStyle: User Style Embedding for Authorship Attribution of Short
Texts [57.503904346336384]
オーサシップアトリビューション(AA)は、多くのアプリケーションで重要で広く研究されている研究トピックです。
近年の研究では、深層学習がAAタスクの精度を大幅に向上させることが示されている。
本稿では,ユーザの健全な書き込みスタイルの表現を学習する新しい埋め込み型フレームワークであるDeepStyleを提案する。
論文 参考訳(メタデータ) (2021-03-14T15:56:37Z) - DRAG: Director-Generator Language Modelling Framework for Non-Parallel
Author Stylized Rewriting [9.275464023441227]
書き直しは、入力テキストを特定の著者のスタイルで書き直す作業である。
著者のスタイルでコンテンツの書き直しを行うためのディレクター・ジェネレータフレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-28T06:52:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。