論文の概要: StyleProtect: Safeguarding Artistic Identity in Fine-tuned Diffusion Models
- arxiv url: http://arxiv.org/abs/2509.13711v1
- Date: Wed, 17 Sep 2025 05:39:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.730673
- Title: StyleProtect: Safeguarding Artistic Identity in Fine-tuned Diffusion Models
- Title(参考訳): StyleProtect: 微調整拡散モデルにおける芸術的アイデンティティの保護
- Authors: Qiuyu Tang, Joshua Krinsky, Aparna Bharati,
- Abstract要約: 拡散に基づくアプローチは、悪意のあるエクスプローラーが安価に芸術的なスタイルを再現することを可能にする。
このことが、スタイルの模倣から美術品を保護する方法の必要性と探究の高まりにつながった。
そこで我々は,高効率かつ軽量な保護戦略であるStyleProtectを導入し,微調整拡散モデルに対する効果的なスタイル防御を実現する。
- 参考スコア(独自算出の注目度): 0.8811927506272431
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid advancement of generative models, particularly diffusion-based approaches, has inadvertently facilitated their potential for misuse. Such models enable malicious exploiters to replicate artistic styles that capture an artist's creative labor, personal vision, and years of dedication in an inexpensive manner. This has led to a rise in the need and exploration of methods for protecting artworks against style mimicry. Although generic diffusion models can easily mimic an artistic style, finetuning amplifies this capability, enabling the model to internalize and reproduce the style with higher fidelity and control. We hypothesize that certain cross-attention layers exhibit heightened sensitivity to artistic styles. Sensitivity is measured through activation strengths of attention layers in response to style and content representations, and assessing their correlations with features extracted from external models. Based on our findings, we introduce an efficient and lightweight protection strategy, StyleProtect, that achieves effective style defense against fine-tuned diffusion models by updating only selected cross-attention layers. Our experiments utilize a carefully curated artwork dataset based on WikiArt, comprising representative works from 30 artists known for their distinctive and influential styles and cartoon animations from the Anita dataset. The proposed method demonstrates promising performance in safeguarding unique styles of artworks and anime from malicious diffusion customization, while maintaining competitive imperceptibility.
- Abstract(参考訳): 生成モデルの急速な進歩、特に拡散に基づくアプローチは、必然的にそれらの誤用の可能性を促進している。
このようなモデルにより、悪質なエクスプローラーは、芸術家の創造的な労働力、個人的なビジョン、何年もの献身を安価に捉えた芸術的なスタイルを再現することができる。
このことが、スタイルの模倣から美術品を保護する方法の必要性と探究の高まりにつながった。
一般的な拡散モデルは、芸術的なスタイルを容易に模倣できるが、微調整は、この能力を増幅し、モデルの内部化と、より忠実で制御されたスタイルの再現を可能にする。
我々は,あるクロスアテンション層が芸術的スタイルに対する感受性を高めていると仮定する。
感性は、スタイルやコンテンツ表現に応答して注目層の活性化強度を計測し、外部モデルから抽出した特徴との相関性を評価する。
提案手法は,提案手法を応用し,効率よくかつ軽量な保護戦略であるStyleProtectを導入し,選択したクロスアテンション層のみを更新することにより,微調整拡散モデルに対する効果的なスタイル防御を実現する。
実験では,WikiArtをベースとした精巧にキュレートされたアートデータセットを用いて,Anitaデータセットの特徴的な,影響力のあるスタイルとアニメアニメーションで知られている30人のアーティストの代表作品で構成された。
提案手法は,悪質な拡散カスタマイズから美術品やアニメのユニークなスタイルを保護し,競争の難しさを維持しつつ,有望な性能を示す。
関連論文リスト
- StyleSentinel: Reliable Artistic Copyright Verification via Stylistic Fingerprints [5.457996001307646]
StyleSentinelは、アーティストのアートワークに固有のスタイリスティックな指紋を検証することによって、アートワークの著作権保護のためのアプローチである。
我々は,芸術作品のスタイリスティックな表現性を高めるために,セマンティックな自己再構成プロセスを採用している。
我々は,抽象芸術様式をコンパクトなスタイリスティックフィンガーにエンコードするために,多層画像特徴を適応的に融合する。
論文 参考訳(メタデータ) (2025-08-02T12:04:52Z) - StyleGuard: Preventing Text-to-Image-Model-based Style Mimicry Attacks by Style Perturbations [27.678238166174115]
テキストと画像の拡散モデルは、スタイルの模倣とパーソナライズされたカスタマイズに広く利用されている。
DiffPureやNozz Upscalingといった最近の浄化法は、これらの最新の防御をうまく攻撃している。
本稿では,これらの問題に対処する新しいアンチミミクリー手法であるStyleGuardを提案する。
論文 参考訳(メタデータ) (2025-05-24T16:09:26Z) - IntroStyle: Training-Free Introspective Style Attribution using Diffusion Features [89.95303251220734]
スタイル帰属問題を解決するための学習自由フレームワークを提案する。
IntroStyleはスタイル属性の最先端モデルよりも優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-12-19T01:21:23Z) - Adversarial Perturbations Cannot Reliably Protect Artists From Generative AI [61.35083814817094]
オンラインで公開されたアートワークに小さな敵対的摂動を取り入れた、スタイルの模倣に対する保護ツールがいくつか開発されている。
画像アップスケーリングのような低努力と「オフ・ザ・シェルフ」技術は、既存の保護を著しく劣化させる堅牢な模倣手法を作成するのに十分であることがわかった。
我々は,敵対的摂動に基づくツールが,生成AIの誤用からアーティストを確実に保護できないことを警告する。
論文 参考訳(メタデータ) (2024-06-17T18:51:45Z) - FedStyle: Style-Based Federated Learning Crowdsourcing Framework for Art Commissions [3.1676484382068315]
FedStyleはスタイルベースのフェデレーション学習クラウドソーシングフレームワークである。
アーティストは、コラボレーションのためのアートワークではなく、ローカルスタイルのモデルをトレーニングし、モデルパラメータを共有することができる。
アーティストに抽象的なスタイルの表現を学習させ、サーバと整合させることで、極端なデータ不均一性に対処する。
論文 参考訳(メタデータ) (2024-04-25T04:53:43Z) - CreativeSynth: Cross-Art-Attention for Artistic Image Synthesis with Multimodal Diffusion [73.08710648258985]
レイアウト、視点、形状、意味といった重要な絵の属性は、しばしばスタイル転送によって伝達され、表現されない。
大規模な事前訓練された画像生成モデルは、大量の高品質な画像を合成できることを実証している。
我々の主要なアイデアは、スタイルを現実の世界に移すのではなく、多モーダルな意味情報を合成ガイドとしてアートに組み込むことである。
論文 参考訳(メタデータ) (2024-01-25T10:42:09Z) - HiCAST: Highly Customized Arbitrary Style Transfer with Adapter Enhanced
Diffusion Models [84.12784265734238]
Arbitrary Style Transfer (AST)の目標は、あるスタイル参照の芸術的特徴を所定の画像/ビデオに注入することである。
各種のセマンティックな手がかりに基づいてスタイリング結果を明示的にカスタマイズできるHiCASTを提案する。
新たな学習目標をビデオ拡散モデルトレーニングに活用し,フレーム間の時間的一貫性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-01-11T12:26:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。