論文の概要: StyleDistance: Stronger Content-Independent Style Embeddings with Synthetic Parallel Examples
- arxiv url: http://arxiv.org/abs/2410.12757v1
- Date: Wed, 16 Oct 2024 17:25:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-17 13:44:03.451734
- Title: StyleDistance: Stronger Content-Independent Style Embeddings with Synthetic Parallel Examples
- Title(参考訳): StyleDistance: より強いコンテンツ非依存のスタイル埋め込みと合成並列例
- Authors: Ajay Patel, Jiacheng Zhu, Justin Qiu, Zachary Horvitz, Marianna Apidianaki, Kathleen McKeown, Chris Callison-Burch,
- Abstract要約: スタイル表現は、内容に関係なく、類似した書体スタイルのテキストを密に埋め込み、異なる書体スタイルのテキストを遠くに埋め込むことを目的としている。
より強力なコンテンツに依存しないスタイル埋め込みをトレーニングするための新しいアプローチであるStyleDistanceを紹介する。
- 参考スコア(独自算出の注目度): 48.44036251656947
- License:
- Abstract: Style representations aim to embed texts with similar writing styles closely and texts with different styles far apart, regardless of content. However, the contrastive triplets often used for training these representations may vary in both style and content, leading to potential content leakage in the representations. We introduce StyleDistance, a novel approach to training stronger content-independent style embeddings. We use a large language model to create a synthetic dataset of near-exact paraphrases with controlled style variations, and produce positive and negative examples across 40 distinct style features for precise contrastive learning. We assess the quality of our synthetic data and embeddings through human and automatic evaluations. StyleDistance enhances the content-independence of style embeddings, which generalize to real-world benchmarks and outperform leading style representations in downstream applications. Our model can be found at https://huggingface.co/StyleDistance/styledistance .
- Abstract(参考訳): スタイル表現は、内容に関係なく、類似した書体スタイルのテキストを密に埋め込み、異なる書体スタイルのテキストを遠くに埋め込むことを目的としている。
しかしながら、これらの表現をトレーニングするためにしばしば使われる対照的な三つ子は、スタイルと内容の両方で異なり、表現に潜在的なコンテンツリークをもたらす可能性がある。
より強力なコンテンツに依存しないスタイル埋め込みをトレーニングするための新しいアプローチであるStyleDistanceを紹介する。
大規模言語モデルを用いて、制御されたスタイルのバリエーションを持つほぼ正確なパラフレーズの合成データセットを作成し、正確なコントラスト学習のための40の異なるスタイルの特徴に対して、肯定的および否定的な例を生成する。
我々は人的・自動的な評価を通じて、合成データの質と埋め込みを評価する。
StyleDistanceは、スタイル埋め込みのコンテント依存性を強化し、実際のベンチマークに一般化し、下流アプリケーションでリードスタイル表現より優れたパフォーマンスを発揮する。
私たちのモデルはhttps://huggingface.co/StyleDistance/styledistance で確認できます。
関連論文リスト
- ParaGuide: Guided Diffusion Paraphrasers for Plug-and-Play Textual Style
Transfer [57.6482608202409]
テキストスタイル転送は、意味を保ちながらテキストのスタイル特性を変換するタスクである。
任意のスタイルに柔軟に適応できる汎用型転送のための新しい拡散型フレームワークを提案する。
本研究では,人的評価と自動評価の両面から,Enron Email Corpusの手法を検証するとともに,形式性,感情,さらにはオーサシップスタイルの伝達にも優れることを示す。
論文 参考訳(メタデータ) (2023-08-29T17:36:02Z) - Learning Interpretable Style Embeddings via Prompting LLMs [46.74488355350601]
スタイル表現学習はテキストで著者スタイルのコンテンツに依存しない表現を構築する。
現在のスタイル表現学習では、ニューラルネットワークを使ってスタイルをコンテンツから切り離し、スタイルベクトルを作成する。
我々は、多くのテキストでスタイメトリーを実行し、合成データセットを作成し、人間の解釈可能なスタイル表現を訓練するために、プロンプトを使用する。
論文 参考訳(メタデータ) (2023-05-22T04:07:54Z) - ALADIN-NST: Self-supervised disentangled representation learning of
artistic style through Neural Style Transfer [60.6863849241972]
我々は、画像に描かれた意味的内容から、より強く絡み合った視覚芸術スタイルの表現を学習する。
スタイルと内容の絡み合いに強く対処することで、スタイル固有のメトリクスが大きく向上することを示します。
論文 参考訳(メタデータ) (2023-04-12T10:33:18Z) - Disentangling Writer and Character Styles for Handwriting Generation [8.33116145030684]
本稿では,2つの相補的コントラストを用いたSDT(style-disentangled Transformer)を用いて,参照サンプルのスタイル共通性を抽出する。
実験結果から,この2つの学習されたスタイル表現が,異なる周波数スケールで情報を提供することが明らかとなった。
論文 参考訳(メタデータ) (2023-03-26T14:32:02Z) - Few-shot Font Generation by Learning Style Difference and Similarity [84.76381937516356]
異なるスタイルの違いと同一スタイルの類似性(DS-Font)を学習する新しいフォント生成手法を提案する。
具体的には,提案するクラスタレベルコントラシブ・スタイル(CCS)の損失により,スタイルエンコーディングを実現する多層型プロジェクタを提案する。
論文 参考訳(メタデータ) (2023-01-24T13:57:25Z) - Self-supervised Context-aware Style Representation for Expressive Speech
Synthesis [23.460258571431414]
本稿では,平文からスタイル表現を自己教師型で学習するための新しいフレームワークを提案する。
感情のレキシコンを活用し、対照的な学習と深いクラスタリングを使用する。
本手法は,音声ブック音声におけるドメイン内およびドメイン外テストセットの主観的評価に基づいて,改善された結果を実現する。
論文 参考訳(メタデータ) (2022-06-25T05:29:48Z) - Generating More Pertinent Captions by Leveraging Semantics and Style on
Multi-Source Datasets [56.018551958004814]
本稿では,データソースの非一様結合をトレーニングすることで,流動的な記述を生成するタスクに対処する。
ノイズの多い画像とテキストのペアを持つ大規模データセットは、サブ最適の監視源を提供する。
本稿では,検索コンポーネントから抽出したスタイルトークンとキーワードを組み込むことにより,セマンティクスと記述スタイルを活用・分離することを提案する。
論文 参考訳(メタデータ) (2021-11-24T19:00:05Z) - Multi-Style Transfer with Discriminative Feedback on Disjoint Corpus [9.793194158416854]
スタイル転送は、非並列コーパスを用いた自然言語生成において広く研究されている。
既存のアプローチの共通の欠点は、すべてのスタイリスティックな次元にわたるジョイントアノテーションの前提条件である。
入力テキストの内容を保存しながら、複数のスタイルのスタイルを制御できるモデルの有効性を示す。
論文 参考訳(メタデータ) (2020-10-22T10:16:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。