論文の概要: Low-Resource Authorship Style Transfer: Can Non-Famous Authors Be Imitated?
- arxiv url: http://arxiv.org/abs/2212.08986v3
- Date: Mon, 04 Nov 2024 18:53:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-06 14:56:53.719164
- Title: Low-Resource Authorship Style Transfer: Can Non-Famous Authors Be Imitated?
- Title(参考訳): 低リソースのオーサリングスタイルのトランスファー: ノンファムなオーサリングはイミットできるのか?
- Authors: Ajay Patel, Nicholas Andrews, Chris Callison-Burch,
- Abstract要約: オーサリングスタイルの転送は、本来の意味を保ちながら、ターゲットの作者のスタイルに合わせてテキストを変更することを含む。
低リソースなオーサリングスタイルの転送タスクを導入し、ターゲットのオーサリングスタイルに限られたテキストしか存在しないようにする。
実験では、Redditのソースとターゲットの作者を選択し、Redditの投稿を転送し、ターゲットの著者のスタイルのたった16の投稿(平均500ワード)に制限します。
- 参考スコア(独自算出の注目度): 41.365967145680116
- License:
- Abstract: Authorship style transfer involves altering text to match the style of a target author whilst preserving the original meaning. Existing unsupervised approaches like STRAP have largely focused on style transfer to target authors with many examples of their writing style in books, speeches, or other published works. This high-resource training data requirement (often greater than 100,000 words) makes these approaches primarily useful for style transfer to published authors, politicians, or other well-known figures and authorship styles, while style transfer to non-famous authors has not been well-studied. We introduce the low-resource authorship style transfer task, a more challenging class of authorship style transfer where only a limited amount of text in the target author's style may exist. In our experiments, we specifically choose source and target authors from Reddit and style transfer their Reddit posts, limiting ourselves to just 16 posts (on average ~500 words) of the target author's style. Style transfer accuracy is typically measured by how often a classifier or human judge will classify an output as written by the target author. Recent authorship representations models excel at authorship identification even with just a few writing samples, making automatic evaluation of this task possible for the first time through evaluation metrics we propose. Our results establish an in-context learning technique we develop as the strongest baseline, though we find current approaches do not yet achieve mastery of this challenging task. We release our data and implementations to encourage further investigation.
- Abstract(参考訳): オーサリングスタイルの転送には、本来の意味を保ちながら、ターゲットの作者のスタイルにマッチするようにテキストを変更することが含まれる。
STRAPのような既存の教師なしのアプローチは、主に、書籍、スピーチ、その他の出版作品のスタイルの多くの例で、対象とする著者へのスタイルの転送に焦点を合わせてきた。
この高リソースのトレーニングデータ要求(しばしば10000語以上)は、これらのアプローチを主に出版者、政治家、その他の著名な人物や著作者へのスタイル転送に役立てる一方で、有名でない著者へのスタイル転送は十分に研究されていない。
本稿では,低リソースなオーサリングスタイル転送タスクを導入する。これは,ターゲットのオーサリングスタイルに限られたテキストしか存在しない,より困難なオーサリングスタイル転送のクラスである。
実験では、Redditのソースとターゲットの作者を選択し、Redditの投稿を転送し、ターゲットの著者のスタイルのたった16の投稿(平均500ワード)に制限します。
スタイルの転送精度は典型的には、分類器や人間の判断器が対象の著者によって書かれた出力を分類する頻度によって測定される。
近年の著者識別モデルでは, 著者識別に優れ, 著者識別の精度が向上し, 筆者らが提案する評価指標により, この課題の自動評価が可能となった。
提案手法は,本手法が最強のベースラインとして開発されているが,現在の手法では,この課題の習得がまだ達成されていない。
さらなる調査を促進するために、データと実装をリリースします。
関連論文リスト
- TinyStyler: Efficient Few-Shot Text Style Transfer with Authorship Embeddings [51.30454130214374]
本稿では,TinyStylerについて紹介する。
我々は、TinyStylerのテキスト属性スタイル転送機能について、自動評価と人的評価で評価する。
私たちのモデルはhttps://huggingface.co/tinystyler/tinystyler.comで公開されています。
論文 参考訳(メタデータ) (2024-06-21T18:41:22Z) - Authorship Style Transfer with Policy Optimization [26.34892894935038]
オーサシップスタイルの転送は、ソースの本来の意味を保ちながら、指定されたテキストを指定されたターゲットに書き換えることを目的としている。
既存のアプローチでは、モデルトレーニングのための多くのターゲットスタイルの例が利用可能になっている。
論文 参考訳(メタデータ) (2024-03-12T19:34:54Z) - STEER: Unified Style Transfer with Expert Reinforcement [71.3995732115262]
STEER: Unified Style Transfer with Expert Reinforcementは、スタイル転送のための限られた並列データという課題を克服するために開発された、統一されたフレームワークである。
STEERは堅牢で、ドメイン外のデータでスタイル転送機能を維持し、様々なスタイルでほぼすべてのベースラインを超越している。
論文 参考訳(メタデータ) (2023-11-13T09:02:30Z) - ParaGuide: Guided Diffusion Paraphrasers for Plug-and-Play Textual Style
Transfer [57.6482608202409]
テキストスタイル転送は、意味を保ちながらテキストのスタイル特性を変換するタスクである。
任意のスタイルに柔軟に適応できる汎用型転送のための新しい拡散型フレームワークを提案する。
本研究では,人的評価と自動評価の両面から,Enron Email Corpusの手法を検証するとともに,形式性,感情,さらにはオーサシップスタイルの伝達にも優れることを示す。
論文 参考訳(メタデータ) (2023-08-29T17:36:02Z) - Can Authorship Representation Learning Capture Stylistic Features? [5.812943049068866]
本研究では,サロゲートオーサシップ予測タスクで学習した表現が,実際に書体に敏感であることを示す。
結果として、著者の表現は、時間とともに話題が漂うような、ある種のデータシフトに対して堅牢であることが期待できる。
我々の発見は、スタイル転送のようなスタイル表現を必要とする下流アプリケーションへの扉を開くかもしれない。
論文 参考訳(メタデータ) (2023-08-22T15:10:45Z) - PART: Pre-trained Authorship Representation Transformer [64.78260098263489]
文書を書く著者は、語彙、レジストリ、句読点、ミススペル、絵文字の使用など、テキスト内での識別情報をインプリントする。
以前の作品では、手作りのフィーチャや分類タスクを使用して著者モデルをトレーニングし、ドメイン外の著者に対するパフォーマンスの低下につながった。
セマンティクスの代わりにtextbfauthorship の埋め込みを学習するために、対照的に訓練されたモデルを提案する。
論文 参考訳(メタデータ) (2022-09-30T11:08:39Z) - From Theories on Styles to their Transfer in Text: Bridging the Gap with
a Hierarchical Survey [10.822011920177408]
スタイル転送は、既存のテキストを書き換え、望ましいスタイル特性を示すパラフレーズを作成することを目的としている。
少数の調査では、この分野の方法論的な概要が示されているが、研究者が特定のスタイルにフォーカスするのを支援していない。
それらを階層に整理し、それぞれの定義の課題を強調し、現在の研究状況のギャップを指摘します。
論文 参考訳(メタデータ) (2021-10-29T15:53:06Z) - Few-shot Controllable Style Transfer for Low-Resource Settings: A Study
in Indian Languages [13.980482277351523]
スタイル転送は、その内容を保持しながら入力文をターゲットスタイルに書き換えるタスクである。
パラフレーズ間のスタイリスティックな差異をモデル化した新しい手法により,数ショットスタイルのトランスファーの最先端を推し進める。
本モデルでは,5言語にまたがる形式性伝達およびコード混合付加における性能と出力の多様性を2~3倍に向上する。
論文 参考訳(メタデータ) (2021-10-14T14:16:39Z) - DeepStyle: User Style Embedding for Authorship Attribution of Short
Texts [57.503904346336384]
オーサシップアトリビューション(AA)は、多くのアプリケーションで重要で広く研究されている研究トピックです。
近年の研究では、深層学習がAAタスクの精度を大幅に向上させることが示されている。
本稿では,ユーザの健全な書き込みスタイルの表現を学習する新しい埋め込み型フレームワークであるDeepStyleを提案する。
論文 参考訳(メタデータ) (2021-03-14T15:56:37Z) - DRAG: Director-Generator Language Modelling Framework for Non-Parallel
Author Stylized Rewriting [9.275464023441227]
書き直しは、入力テキストを特定の著者のスタイルで書き直す作業である。
著者のスタイルでコンテンツの書き直しを行うためのディレクター・ジェネレータフレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-28T06:52:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。