論文の概要: StyleDistance: Stronger Content-Independent Style Embeddings with Synthetic Parallel Examples
- arxiv url: http://arxiv.org/abs/2410.12757v1
- Date: Wed, 16 Oct 2024 17:25:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-28 17:07:36.43138
- Title: StyleDistance: Stronger Content-Independent Style Embeddings with Synthetic Parallel Examples
- Title(参考訳): StyleDistance: より強いコンテンツ非依存のスタイル埋め込みと合成並列例
- Authors: Ajay Patel, Jiacheng Zhu, Justin Qiu, Zachary Horvitz, Marianna Apidianaki, Kathleen McKeown, Chris Callison-Burch,
- Abstract要約: スタイル表現は、内容に関係なく、類似した書体スタイルのテキストを密に埋め込み、異なる書体スタイルのテキストを遠くに埋め込むことを目的としている。
より強力なコンテンツに依存しないスタイル埋め込みをトレーニングするための新しいアプローチであるStyleDistanceを紹介する。
- 参考スコア(独自算出の注目度): 48.44036251656947
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Style representations aim to embed texts with similar writing styles closely and texts with different styles far apart, regardless of content. However, the contrastive triplets often used for training these representations may vary in both style and content, leading to potential content leakage in the representations. We introduce StyleDistance, a novel approach to training stronger content-independent style embeddings. We use a large language model to create a synthetic dataset of near-exact paraphrases with controlled style variations, and produce positive and negative examples across 40 distinct style features for precise contrastive learning. We assess the quality of our synthetic data and embeddings through human and automatic evaluations. StyleDistance enhances the content-independence of style embeddings, which generalize to real-world benchmarks and outperform leading style representations in downstream applications. Our model can be found at https://huggingface.co/StyleDistance/styledistance .
- Abstract(参考訳): スタイル表現は、内容に関係なく、類似した書体スタイルのテキストを密に埋め込み、異なる書体スタイルのテキストを遠くに埋め込むことを目的としている。
しかしながら、これらの表現をトレーニングするためにしばしば使われる対照的な三つ子は、スタイルと内容の両方で異なり、表現に潜在的なコンテンツリークをもたらす可能性がある。
より強力なコンテンツに依存しないスタイル埋め込みをトレーニングするための新しいアプローチであるStyleDistanceを紹介する。
大規模言語モデルを用いて、制御されたスタイルのバリエーションを持つほぼ正確なパラフレーズの合成データセットを作成し、正確なコントラスト学習のための40の異なるスタイルの特徴に対して、肯定的および否定的な例を生成する。
我々は人的・自動的な評価を通じて、合成データの質と埋め込みを評価する。
StyleDistanceは、スタイル埋め込みのコンテント依存性を強化し、実際のベンチマークに一般化し、下流アプリケーションでリードスタイル表現より優れたパフォーマンスを発揮する。
私たちのモデルはhttps://huggingface.co/StyleDistance/styledistance で確認できます。
関連論文リスト
- mStyleDistance: Multilingual Style Embeddings and their Evaluation [45.24752717803745]
合成データとコントラスト学習を用いて学習したスタイル埋め込みモデルであるMultilingual StyleDistanceを紹介する。
9言語からのデータに基づいてモデルをトレーニングし、多言語STEL-or-Contentベンチマークを作成する。
以上の結果から,mStyleDistanceの埋め込みは,これらの多言語スタイルのベンチマークにおいて既存のモデルよりも優れており,見当たらない機能や言語に対してよく一般化されていることがわかった。
論文 参考訳(メタデータ) (2025-02-21T03:11:41Z) - StyleBlend: Enhancing Style-Specific Content Creation in Text-to-Image Diffusion Models [10.685779311280266]
StyleBlendは、限られた参照画像からスタイル表現を学習し、適用するために設計された手法である。
アプローチではスタイルを構成とテクスチャの2つのコンポーネントに分解し,それぞれが異なる戦略を通じて学習する。
論文 参考訳(メタデータ) (2025-02-13T08:26:54Z) - Isolating authorship from content with semantic embeddings and contrastive learning [49.15148871877941]
作者は内部にスタイルとコンテンツが絡み合っている。
本稿では,意味的類似性モデルを用いて合成的に生成した強みを付加したコントラスト学習手法を提案する。
この切り離し技術は、コンテンツ埋め込み空間をスタイル埋め込み空間から遠ざけることを目的としており、スタイル埋め込みをより情報伝達する。
論文 参考訳(メタデータ) (2024-11-27T16:08:46Z) - ParaGuide: Guided Diffusion Paraphrasers for Plug-and-Play Textual Style
Transfer [57.6482608202409]
テキストスタイル転送は、意味を保ちながらテキストのスタイル特性を変換するタスクである。
任意のスタイルに柔軟に適応できる汎用型転送のための新しい拡散型フレームワークを提案する。
本研究では,人的評価と自動評価の両面から,Enron Email Corpusの手法を検証するとともに,形式性,感情,さらにはオーサシップスタイルの伝達にも優れることを示す。
論文 参考訳(メタデータ) (2023-08-29T17:36:02Z) - Learning Interpretable Style Embeddings via Prompting LLMs [46.74488355350601]
スタイル表現学習はテキストで著者スタイルのコンテンツに依存しない表現を構築する。
現在のスタイル表現学習では、ニューラルネットワークを使ってスタイルをコンテンツから切り離し、スタイルベクトルを作成する。
我々は、多くのテキストでスタイメトリーを実行し、合成データセットを作成し、人間の解釈可能なスタイル表現を訓練するために、プロンプトを使用する。
論文 参考訳(メタデータ) (2023-05-22T04:07:54Z) - ALADIN-NST: Self-supervised disentangled representation learning of
artistic style through Neural Style Transfer [60.6863849241972]
我々は、画像に描かれた意味的内容から、より強く絡み合った視覚芸術スタイルの表現を学習する。
スタイルと内容の絡み合いに強く対処することで、スタイル固有のメトリクスが大きく向上することを示します。
論文 参考訳(メタデータ) (2023-04-12T10:33:18Z) - Disentangling Writer and Character Styles for Handwriting Generation [8.33116145030684]
本稿では,2つの相補的コントラストを用いたSDT(style-disentangled Transformer)を用いて,参照サンプルのスタイル共通性を抽出する。
実験結果から,この2つの学習されたスタイル表現が,異なる周波数スケールで情報を提供することが明らかとなった。
論文 参考訳(メタデータ) (2023-03-26T14:32:02Z) - Few-shot Font Generation by Learning Style Difference and Similarity [84.76381937516356]
異なるスタイルの違いと同一スタイルの類似性(DS-Font)を学習する新しいフォント生成手法を提案する。
具体的には,提案するクラスタレベルコントラシブ・スタイル(CCS)の損失により,スタイルエンコーディングを実現する多層型プロジェクタを提案する。
論文 参考訳(メタデータ) (2023-01-24T13:57:25Z) - Self-supervised Context-aware Style Representation for Expressive Speech
Synthesis [23.460258571431414]
本稿では,平文からスタイル表現を自己教師型で学習するための新しいフレームワークを提案する。
感情のレキシコンを活用し、対照的な学習と深いクラスタリングを使用する。
本手法は,音声ブック音声におけるドメイン内およびドメイン外テストセットの主観的評価に基づいて,改善された結果を実現する。
論文 参考訳(メタデータ) (2022-06-25T05:29:48Z) - Generating More Pertinent Captions by Leveraging Semantics and Style on
Multi-Source Datasets [56.018551958004814]
本稿では,データソースの非一様結合をトレーニングすることで,流動的な記述を生成するタスクに対処する。
ノイズの多い画像とテキストのペアを持つ大規模データセットは、サブ最適の監視源を提供する。
本稿では,検索コンポーネントから抽出したスタイルトークンとキーワードを組み込むことにより,セマンティクスと記述スタイルを活用・分離することを提案する。
論文 参考訳(メタデータ) (2021-11-24T19:00:05Z) - Multi-Style Transfer with Discriminative Feedback on Disjoint Corpus [9.793194158416854]
スタイル転送は、非並列コーパスを用いた自然言語生成において広く研究されている。
既存のアプローチの共通の欠点は、すべてのスタイリスティックな次元にわたるジョイントアノテーションの前提条件である。
入力テキストの内容を保存しながら、複数のスタイルのスタイルを制御できるモデルの有効性を示す。
論文 参考訳(メタデータ) (2020-10-22T10:16:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。