論文の概要: Imperceptible Protection against Style Imitation from Diffusion Models
- arxiv url: http://arxiv.org/abs/2403.19254v1
- Date: Thu, 28 Mar 2024 09:21:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-29 16:53:18.890501
- Title: Imperceptible Protection against Style Imitation from Diffusion Models
- Title(参考訳): 拡散モデルからのスタイル模倣に対する知覚不能な防御
- Authors: Namhyuk Ahn, Wonhyuk Ahn, KiYoon Yoo, Daesik Kim, Seung-Hun Nam,
- Abstract要約: 私たちは人間の目に最も敏感な領域を特定する知覚マップを作成します。
次に、インスタンス認識の精細化によって導かれる保護強度を調整する。
その結果,保護効果を損なうことなく,保護画像の品質を著しく向上させることがわかった。
- 参考スコア(独自算出の注目度): 9.548195579003897
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent progress in diffusion models has profoundly enhanced the fidelity of image generation. However, this has raised concerns about copyright infringements. While prior methods have introduced adversarial perturbations to prevent style imitation, most are accompanied by the degradation of artworks' visual quality. Recognizing the importance of maintaining this, we develop a visually improved protection method that preserves its protection capability. To this end, we create a perceptual map to identify areas most sensitive to human eyes. We then adjust the protection intensity guided by an instance-aware refinement. We also integrate a perceptual constraints bank to further improve the imperceptibility. Results show that our method substantially elevates the quality of the protected image without compromising on protection efficacy.
- Abstract(参考訳): 拡散モデルの最近の進歩は、画像生成の忠実性を大幅に向上させた。
しかし、これは著作権侵害の懸念を引き起こしている。
それまでの手法では、スタイルの模倣を防ぐために対向的摂動を導入してきたが、そのほとんどは、美術品の視覚的品質の低下に伴うものである。
これを維持することの重要性を認識し、我々はその保護能力を保ちながら視覚的に改善された保護方法を開発した。
この目的のために、人間の目に最も敏感な領域を特定する知覚マップを作成する。
次に、インスタンス認識の精細化によって導かれる保護強度を調整する。
また、知覚的制約銀行を統合して、認識不能性をさらに改善します。
その結果,保護効果を損なうことなく,保護画像の品質を著しく向上させることがわかった。
関連論文リスト
- CopyrightMeter: Revisiting Copyright Protection in Text-to-image Models [30.618794027527695]
我々は17の最先端保護と16の代表的な攻撃を組み込んだ統合評価フレームワークであるPiciceMeterを開発した。
分析の結果, (i) 大部分の保護(16/17) は攻撃に対する耐性がない, (ii) ベスト保護は目標の優先度によって異なる, (iii) より高度な攻撃は保護のアップグレードを著しく促進する,という結論が得られた。
論文 参考訳(メタデータ) (2024-11-20T09:19:10Z) - DiffusionGuard: A Robust Defense Against Malicious Diffusion-based Image Editing [93.45507533317405]
DiffusionGuardは、拡散ベースの画像編集モデルによる不正な編集に対する堅牢で効果的な防御方法である。
拡散過程の初期段階をターゲットとした対向雑音を発生させる新しい目的を提案する。
また,テスト期間中の各種マスクに対するロバスト性を高めるマスク強化手法も導入した。
論文 参考訳(メタデータ) (2024-10-08T05:19:19Z) - Pixel Is Not A Barrier: An Effective Evasion Attack for Pixel-Domain Diffusion Models [9.905296922309157]
拡散モデルは高品質な画像合成のための強力な生成モデルとして登場し、それに基づく画像編集技術も数多くある。
従来の研究は、知覚不能な摂動を加えることで、画像の拡散に基づく編集を防ごうとしてきた。
本研究は,UNETの脆弱性を悪用した特徴表現攻撃損失と,保護された画像の自然性を高めるための潜在最適化戦略を備えた,新たな攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-21T17:56:34Z) - Visual-Friendly Concept Protection via Selective Adversarial Perturbations [23.780603071185197]
本稿では、画像所有者が選択した重要な概念の保護を優先する、Visual-Friendly Concept Protection (VCPro)フレームワークを提案する。
これらの摂動をできるだけ目立たずにするために、緩和された最適化目標を導入する。
実験では、VCProが摂動の可視性と保護効果の間のトレードオフをよりよいものにすることを確認した。
論文 参考訳(メタデータ) (2024-08-16T04:14:28Z) - Rethinking and Defending Protective Perturbation in Personalized Diffusion Models [21.30373461975769]
パーソナライズされた拡散モデル(PDM)の微調整過程について,ショートカット学習のレンズを用いて検討した。
PDMは小さな逆境の摂動に影響を受けやすいため、破損したデータセットを微調整すると著しく劣化する。
本稿では,データ浄化と対照的なデカップリング学習を含むシステム防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-27T07:14:14Z) - EnTruth: Enhancing the Traceability of Unauthorized Dataset Usage in Text-to-image Diffusion Models with Minimal and Robust Alterations [73.94175015918059]
本稿では、未承認のデータセット使用のトレーサビリティを高める新しいアプローチであるEnTruthを紹介する。
テンプレートの暗記を戦略的に取り入れることで、EnTruthは不正なモデルの特定の振る舞いを侵害の証拠として引き起こすことができる。
本手法は, 暗記の正当性を調査し, 著作権保護に利用し, 呪いを祝福する最初の方法である。
論文 参考訳(メタデータ) (2024-06-20T02:02:44Z) - Adversarial Perturbations Cannot Reliably Protect Artists From Generative AI [61.35083814817094]
オンラインで公開されたアートワークに小さな敵対的摂動を取り入れた、スタイルの模倣に対する保護ツールがいくつか開発されている。
画像アップスケーリングのような低努力と「オフ・ザ・シェルフ」技術は、既存の保護を著しく劣化させる堅牢な模倣手法を作成するのに十分であることがわかった。
我々は,敵対的摂動に基づくツールが,生成AIの誤用からアーティストを確実に保護できないことを警告する。
論文 参考訳(メタデータ) (2024-06-17T18:51:45Z) - Diffusion-Based Hierarchical Image Steganography [60.69791384893602]
Hierarchical Image Steganographyは、複数のイメージを単一のコンテナに埋め込むセキュリティとキャパシティを高める新しい方法である。
フローモデルの可逆性とともに拡散モデルの堅牢性を利用する。
この革新的な構造は、コンテナイメージを自律的に生成し、複数の画像やテキストを安全かつ効率的に隠蔽することができる。
論文 参考訳(メタデータ) (2024-05-19T11:29:52Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - Adv-Attribute: Inconspicuous and Transferable Adversarial Attack on Face
Recognition [111.1952945740271]
Adv-Attribute (Adv-Attribute) は、顔認証に対する不明瞭で伝達可能な攻撃を生成するように設計されている。
FFHQとCelebA-HQデータセットの実験は、提案されたAdv-Attributeメソッドが最先端の攻撃成功率を達成することを示している。
論文 参考訳(メタデータ) (2022-10-13T09:56:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。