論文の概要: IntroStyle: Training-Free Introspective Style Attribution using Diffusion Features
- arxiv url: http://arxiv.org/abs/2412.14432v1
- Date: Thu, 19 Dec 2024 01:21:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-20 13:30:09.759651
- Title: IntroStyle: Training-Free Introspective Style Attribution using Diffusion Features
- Title(参考訳): IntroStyle: 拡散特徴を用いたトレーニング不要なイントロスペクティブスタイルの属性
- Authors: Anand Kumar, Jiteng Mu, Nuno Vasconcelos,
- Abstract要約: 本稿では,拡散モデルのみによって生成された特徴を用いて,スタイル帰属問題を解決するための学習自由フレームワークを提案する。
これはイントロスペクティブなスタイル属性(IntroStyle)と表現され、スタイル検索の最先端モデルよりも優れたパフォーマンスを示す。
また,芸術的スタイルを分離し,きめ細かなスタイル帰属性能を評価するために,スタイルハック(SHacks)の合成データセットも導入した。
- 参考スコア(独自算出の注目度): 89.95303251220734
- License:
- Abstract: Text-to-image (T2I) models have gained widespread adoption among content creators and the general public. However, this has sparked significant concerns regarding data privacy and copyright infringement among artists. Consequently, there is an increasing demand for T2I models to incorporate mechanisms that prevent the generation of specific artistic styles, thereby safeguarding intellectual property rights. Existing methods for style extraction typically necessitate the collection of custom datasets and the training of specialized models. This, however, is resource-intensive, time-consuming, and often impractical for real-time applications. Moreover, it may not adequately address the dynamic nature of artistic styles and the rapidly evolving landscape of digital art. We present a novel, training-free framework to solve the style attribution problem, using the features produced by a diffusion model alone, without any external modules or retraining. This is denoted as introspective style attribution (IntroStyle) and demonstrates superior performance to state-of-the-art models for style retrieval. We also introduce a synthetic dataset of Style Hacks (SHacks) to isolate artistic style and evaluate fine-grained style attribution performance.
- Abstract(参考訳): テキスト・ツー・イメージ(T2I)モデルは、コンテンツ・クリエーターや一般大衆の間で広く普及している。
しかし、これは、データプライバシーとアーティスト間の著作権侵害に関する重大な懸念を引き起こしている。
その結果、T2Iモデルには、特定の芸術スタイルの発生を防ぎ、知的財産権を保護するメカニズムを組み込むことが要求されている。
スタイル抽出の既存の方法は、通常、カスタムデータセットの収集と特別なモデルのトレーニングを必要とする。
しかし、これはリソース集約的で、時間がかかり、しばしばリアルタイムアプリケーションには実用的ではない。
さらに、芸術様式のダイナミックな性質や、急速に進化するデジタルアートのランドスケープに適切に対処することができない。
本稿では,外部モジュールや再学習を必要とせず,拡散モデルのみによって生成された特徴を用いて,スタイル帰属問題を解決する新しい学習自由フレームワークを提案する。
これはイントロスペクティブなスタイル属性(IntroStyle)と表現され、スタイル検索の最先端モデルよりも優れたパフォーマンスを示す。
また,芸術的スタイルを分離し,きめ細かなスタイル帰属性能を評価するために,スタイルハック(SHacks)の合成データセットも導入した。
関連論文リスト
- SVP: Style-Enhanced Vivid Portrait Talking Head Diffusion Model [64.28263381647628]
トーキングヘッドジェネレーション(THG)は、デジタル人間、映画制作、バーチャルリアリティーなど様々な分野の幅広い応用分野において重要な課題である。
本稿では,THGのスタイル関連情報をフル活用したSVP(Style-Enhanced Vivid Portrait)を提案する。
我々のモデルは、本質的なスタイルを柔軟に制御できる多様な、鮮明で高品質なビデオを生成し、既存の最先端の手法より優れています。
論文 参考訳(メタデータ) (2024-09-05T06:27:32Z) - MuseumMaker: Continual Style Customization without Catastrophic Forgetting [50.12727620780213]
本研究では,一組のカスタマイズスタイルを終末的に追従することで,画像の合成を可能にする方法であるMuseumMakerを提案する。
新しいカスタマイズスタイルに直面すると、新しい画像生成のためのトレーニングデータのスタイルを抽出し学習するスタイル蒸留損失モジュールを開発する。
これは、新しい訓練画像の内容による学習バイアスを最小限に抑え、少数ショット画像によって引き起こされる破滅的な過適合問題に対処することができる。
論文 参考訳(メタデータ) (2024-04-25T13:51:38Z) - FedStyle: Style-Based Federated Learning Crowdsourcing Framework for Art Commissions [3.1676484382068315]
FedStyleはスタイルベースのフェデレーション学習クラウドソーシングフレームワークである。
アーティストは、コラボレーションのためのアートワークではなく、ローカルスタイルのモデルをトレーニングし、モデルパラメータを共有することができる。
アーティストに抽象的なスタイルの表現を学習させ、サーバと整合させることで、極端なデータ不均一性に対処する。
論文 参考訳(メタデータ) (2024-04-25T04:53:43Z) - Rethinking Artistic Copyright Infringements in the Era of Text-to-Image Generative Models [47.19481598385283]
ArtSavantは、ウィキアートの作品の参照データセットと比較することで、アーティストのユニークなスタイルを決定するツールである。
そこで我々は,3つの人気テキスト・画像生成モデルにまたがる芸術的スタイルの複製の頻度を定量的に把握するために,大規模な実証的研究を行った。
論文 参考訳(メタデータ) (2024-04-11T17:59:43Z) - Measuring Style Similarity in Diffusion Models [118.22433042873136]
画像からスタイル記述子を理解し抽出するためのフレームワークを提案する。
我々のフレームワークは、スタイルが画像の主観的特性であるという洞察を用いてキュレートされた新しいデータセットで構成されている。
また、テキスト・ツー・イメージ・モデルのトレーニングデータセットで使用される画像に対して、生成した画像のスタイルに使用できるスタイル属性記述子を抽出する手法を提案する。
論文 参考訳(メタデータ) (2024-04-01T17:58:30Z) - HiCAST: Highly Customized Arbitrary Style Transfer with Adapter Enhanced
Diffusion Models [84.12784265734238]
Arbitrary Style Transfer (AST)の目標は、あるスタイル参照の芸術的特徴を所定の画像/ビデオに注入することである。
各種のセマンティックな手がかりに基づいてスタイリング結果を明示的にカスタマイズできるHiCASTを提案する。
新たな学習目標をビデオ拡散モデルトレーニングに活用し,フレーム間の時間的一貫性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-01-11T12:26:23Z) - ArtBank: Artistic Style Transfer with Pre-trained Diffusion Model and
Implicit Style Prompt Bank [9.99530386586636]
アートスタイルの転送は、学習したアートスタイルでコンテンツイメージを再描画することを目的としている。
既存のスタイル転送手法は、小さなモデルベースアプローチと、事前訓練された大規模モデルベースアプローチの2つのカテゴリに分けられる。
本研究では,高度にリアルなスタイライズされた画像を生成するために,アートバンクという新しいスタイル転送フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-11T05:53:40Z) - Few-shots Portrait Generation with Style Enhancement and Identity
Preservation [3.6937810031393123]
StyleIdentityGANモデルは、生成された肖像画のアイデンティティと芸術性を同時に確保することができる。
スタイル強化モジュールは、生成した仮想顔画像の芸術性を改善するために、デカップリングと転送の芸術的スタイルの特徴に焦点を当てている。
アートやアイデンティティ効果の最先端手法よりもStyleIdentityGANの方が優れていることを示す実験を行った。
論文 参考訳(メタデータ) (2023-03-01T10:02:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。