論文の概要: StyleDistance: Stronger Content-Independent Style Embeddings with Synthetic Parallel Examples
- arxiv url: http://arxiv.org/abs/2410.12757v1
- Date: Wed, 16 Oct 2024 17:25:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-17 13:44:03.451734
- Title: StyleDistance: Stronger Content-Independent Style Embeddings with Synthetic Parallel Examples
- Title(参考訳): StyleDistance: より強いコンテンツ非依存のスタイル埋め込みと合成並列例
- Authors: Ajay Patel, Jiacheng Zhu, Justin Qiu, Zachary Horvitz, Marianna Apidianaki, Kathleen McKeown, Chris Callison-Burch,
- Abstract要約: スタイル表現は、内容に関係なく、類似した書体スタイルのテキストを密に埋め込み、異なる書体スタイルのテキストを遠くに埋め込むことを目的としている。
より強力なコンテンツに依存しないスタイル埋め込みをトレーニングするための新しいアプローチであるStyleDistanceを紹介する。
- 参考スコア(独自算出の注目度): 48.44036251656947
- License:
- Abstract: Style representations aim to embed texts with similar writing styles closely and texts with different styles far apart, regardless of content. However, the contrastive triplets often used for training these representations may vary in both style and content, leading to potential content leakage in the representations. We introduce StyleDistance, a novel approach to training stronger content-independent style embeddings. We use a large language model to create a synthetic dataset of near-exact paraphrases with controlled style variations, and produce positive and negative examples across 40 distinct style features for precise contrastive learning. We assess the quality of our synthetic data and embeddings through human and automatic evaluations. StyleDistance enhances the content-independence of style embeddings, which generalize to real-world benchmarks and outperform leading style representations in downstream applications. Our model can be found at https://huggingface.co/StyleDistance/styledistance .
- Abstract(参考訳): スタイル表現は、内容に関係なく、類似した書体スタイルのテキストを密に埋め込み、異なる書体スタイルのテキストを遠くに埋め込むことを目的としている。
しかしながら、これらの表現をトレーニングするためにしばしば使われる対照的な三つ子は、スタイルと内容の両方で異なり、表現に潜在的なコンテンツリークをもたらす可能性がある。
より強力なコンテンツに依存しないスタイル埋め込みをトレーニングするための新しいアプローチであるStyleDistanceを紹介する。
大規模言語モデルを用いて、制御されたスタイルのバリエーションを持つほぼ正確なパラフレーズの合成データセットを作成し、正確なコントラスト学習のための40の異なるスタイルの特徴に対して、肯定的および否定的な例を生成する。
我々は人的・自動的な評価を通じて、合成データの質と埋め込みを評価する。
StyleDistanceは、スタイル埋め込みのコンテント依存性を強化し、実際のベンチマークに一般化し、下流アプリケーションでリードスタイル表現より優れたパフォーマンスを発揮する。
私たちのモデルはhttps://huggingface.co/StyleDistance/styledistance で確認できます。
関連論文リスト
- ReStyle3D: Scene-Level Appearance Transfer with Semantic Correspondences [33.06053818091165]
ReStyle3Dは、シーンレベルの外観を1つのスタイルのイメージから、複数のビューで表現された現実世界のシーンに転送するためのフレームワークである。
明示的な意味対応と多視点整合性を組み合わせることで、正確で一貫性のあるスタイリングを実現する。
私たちのコード、事前訓練されたモデル、データセットは、インテリアデザイン、仮想ステージング、そして3D一貫性のあるスタイリングにおける新しいアプリケーションをサポートするために、公開されます。
論文 参考訳(メタデータ) (2025-02-14T18:54:21Z) - StyleBlend: Enhancing Style-Specific Content Creation in Text-to-Image Diffusion Models [10.685779311280266]
StyleBlendは、限られた参照画像からスタイル表現を学習し、適用するために設計された手法である。
アプローチではスタイルを構成とテクスチャの2つのコンポーネントに分解し,それぞれが異なる戦略を通じて学習する。
論文 参考訳(メタデータ) (2025-02-13T08:26:54Z) - Isolating authorship from content with semantic embeddings and contrastive learning [49.15148871877941]
作者は内部にスタイルとコンテンツが絡み合っている。
本稿では,意味的類似性モデルを用いて合成的に生成した強みを付加したコントラスト学習手法を提案する。
この切り離し技術は、コンテンツ埋め込み空間をスタイル埋め込み空間から遠ざけることを目的としており、スタイル埋め込みをより情報伝達する。
論文 参考訳(メタデータ) (2024-11-27T16:08:46Z) - Learning Interpretable Style Embeddings via Prompting LLMs [46.74488355350601]
スタイル表現学習はテキストで著者スタイルのコンテンツに依存しない表現を構築する。
現在のスタイル表現学習では、ニューラルネットワークを使ってスタイルをコンテンツから切り離し、スタイルベクトルを作成する。
我々は、多くのテキストでスタイメトリーを実行し、合成データセットを作成し、人間の解釈可能なスタイル表現を訓練するために、プロンプトを使用する。
論文 参考訳(メタデータ) (2023-05-22T04:07:54Z) - ALADIN-NST: Self-supervised disentangled representation learning of
artistic style through Neural Style Transfer [60.6863849241972]
我々は、画像に描かれた意味的内容から、より強く絡み合った視覚芸術スタイルの表現を学習する。
スタイルと内容の絡み合いに強く対処することで、スタイル固有のメトリクスが大きく向上することを示します。
論文 参考訳(メタデータ) (2023-04-12T10:33:18Z) - Few-shot Font Generation by Learning Style Difference and Similarity [84.76381937516356]
異なるスタイルの違いと同一スタイルの類似性(DS-Font)を学習する新しいフォント生成手法を提案する。
具体的には,提案するクラスタレベルコントラシブ・スタイル(CCS)の損失により,スタイルエンコーディングを実現する多層型プロジェクタを提案する。
論文 参考訳(メタデータ) (2023-01-24T13:57:25Z) - Generating More Pertinent Captions by Leveraging Semantics and Style on
Multi-Source Datasets [56.018551958004814]
本稿では,データソースの非一様結合をトレーニングすることで,流動的な記述を生成するタスクに対処する。
ノイズの多い画像とテキストのペアを持つ大規模データセットは、サブ最適の監視源を提供する。
本稿では,検索コンポーネントから抽出したスタイルトークンとキーワードを組み込むことにより,セマンティクスと記述スタイルを活用・分離することを提案する。
論文 参考訳(メタデータ) (2021-11-24T19:00:05Z) - Multi-Style Transfer with Discriminative Feedback on Disjoint Corpus [9.793194158416854]
スタイル転送は、非並列コーパスを用いた自然言語生成において広く研究されている。
既存のアプローチの共通の欠点は、すべてのスタイリスティックな次元にわたるジョイントアノテーションの前提条件である。
入力テキストの内容を保存しながら、複数のスタイルのスタイルを制御できるモデルの有効性を示す。
論文 参考訳(メタデータ) (2020-10-22T10:16:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。