論文の概要: Nearly Zero-Cost Protection Against Mimicry by Personalized Diffusion Models
- arxiv url: http://arxiv.org/abs/2412.11423v1
- Date: Mon, 16 Dec 2024 03:46:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:57:14.398884
- Title: Nearly Zero-Cost Protection Against Mimicry by Personalized Diffusion Models
- Title(参考訳): パーソナライズされた拡散モデルによるミリ波に対するほぼゼロコスト保護
- Authors: Namhyuk Ahn, KiYoon Yoo, Wonhyuk Ahn, Daesik Kim, Seung-Hun Nam,
- Abstract要約: 遅延を低減するための事前学習を導入し、性能劣化を最小限に抑えるための混合摂動手法を提案する。
我々の新しいトレーニング戦略は、複数のVAE特徴空間における保護損失を計算し、推論における適応的目標保護はロバスト性を高める。
実験では、視認性を向上し、推論時間を劇的に短縮した同等の保護性能を示す。
- 参考スコア(独自算出の注目度): 9.548195579003897
- License:
- Abstract: Recent advancements in diffusion models revolutionize image generation but pose risks of misuse, such as replicating artworks or generating deepfakes. Existing image protection methods, though effective, struggle to balance protection efficacy, invisibility, and latency, thus limiting practical use. We introduce perturbation pre-training to reduce latency and propose a mixture-of-perturbations approach that dynamically adapts to input images to minimize performance degradation. Our novel training strategy computes protection loss across multiple VAE feature spaces, while adaptive targeted protection at inference enhances robustness and invisibility. Experiments show comparable protection performance with improved invisibility and drastically reduced inference time. The code and demo are available at \url{https://webtoon.github.io/impasto}
- Abstract(参考訳): 拡散モデルの最近の進歩は、画像生成に革命をもたらすが、アートワークの複製やディープフェイクの生成といった誤用のリスクを引き起こす。
既存の画像保護手法は、有効ではあるが、保護効果、可視性、遅延のバランスをとるのに苦労し、実用的な使用を制限する。
遅延を低減するために摂動事前学習を導入し、入力画像に動的に適応して性能劣化を最小限に抑える混合摂動アプローチを提案する。
我々の新しいトレーニング戦略は、複数のVAE特徴空間における保護損失を計算し、推論における適応的目標保護は堅牢性と可視性を向上する。
実験では、視認性を向上し、推論時間を劇的に短縮した同等の保護性能を示す。
コードとデモは \url{https://webtoon.github.io/impasto} で公開されている。
関連論文リスト
- CAT: Contrastive Adversarial Training for Evaluating the Robustness of Protective Perturbations in Latent Diffusion Models [15.363134355805764]
保護的摂動としての敵対的な例は、不正なデータの使用を防ぐために開発された。
本稿では,これらの保護手法に対する適応攻撃としてアダプタを利用するコントラスト適応訓練(Contrastive Adversarial Training, CAT)を提案する。
論文 参考訳(メタデータ) (2025-02-11T03:35:35Z) - Real-time Identity Defenses against Malicious Personalization of Diffusion Models [39.861209610456356]
本研究では,1つの前方パスを通じて対向摂動を生成するニューラルネットワークであるReal-time Identity Defender (RID)を紹介する。
RIDは前例のない効率を実現し、1つのNVIDIA A100 80G GPUで防衛時間は0.12秒である。
我々のモデルは、肖像画権の保護において重要な役割を担い、違法で非倫理的な使用を防止できると想定されている。
論文 参考訳(メタデータ) (2024-12-13T04:27:08Z) - Safety Alignment Backfires: Preventing the Re-emergence of Suppressed Concepts in Fine-tuned Text-to-Image Diffusion Models [57.16056181201623]
微調整されたテキストと画像の拡散モデルは、必然的に安全対策を解除し、有害な概念を再現する。
本報告では,Funice-Tuning LoRAコンポーネントとは別に,安全性の低い適応モジュールをトレーニングする,Modular LoRAと呼ばれる新しいソリューションを提案する。
本手法は,新しいタスクにおけるモデルの性能を損なうことなく,有害なコンテンツの再学習を効果的に防止する。
論文 参考訳(メタデータ) (2024-11-30T04:37:38Z) - DiffusionGuard: A Robust Defense Against Malicious Diffusion-based Image Editing [93.45507533317405]
DiffusionGuardは、拡散ベースの画像編集モデルによる不正な編集に対する堅牢で効果的な防御方法である。
拡散過程の初期段階をターゲットとした対向雑音を発生させる新しい目的を提案する。
また,テスト期間中の各種マスクに対するロバスト性を高めるマスク強化手法も導入した。
論文 参考訳(メタデータ) (2024-10-08T05:19:19Z) - Imperceptible Protection against Style Imitation from Diffusion Models [9.548195579003897]
保護機能を保ちながら視覚的に改善された保護方法を提案する。
我々は,人間の目に敏感な領域に注目する知覚マップを考案した。
また,アートワークがどれだけの強度を保護・動的に調整することが難しいかを予測し,難易度に配慮した保護も導入した。
論文 参考訳(メタデータ) (2024-03-28T09:21:00Z) - Efficient Diffusion Model for Image Restoration by Residual Shifting [63.02725947015132]
本研究では,画像復元のための新しい,効率的な拡散モデルを提案する。
提案手法は,推論中の後処理の高速化を回避し,関連する性能劣化を回避する。
提案手法は,3つの古典的IRタスクにおける現在の最先端手法よりも優れた,あるいは同等の性能を実現する。
論文 参考訳(メタデータ) (2024-03-12T05:06:07Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - IRAD: Implicit Representation-driven Image Resampling against Adversarial Attacks [16.577595936609665]
本稿では,画像再サンプリングという,敵対的攻撃に対する新たなアプローチを提案する。
画像再サンプリングは、幾何学的変換によって指定されたシーンの再調整や再レンダリングの過程をシミュレートして、離散画像を新しい画像に変換する。
本手法は,クリーンな画像の精度を維持しつつ,多様な深層モデルの様々な攻撃に対する対角的堅牢性を著しく向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T11:19:32Z) - Toward effective protection against diffusion based mimicry through
score distillation [15.95715097030366]
拡散に基づく模倣パイプラインから画像を保護するため、摂動を追加する努力がなされている。
既存の手法のほとんどは非効率であり、個々のユーザーが使うには実用的ではない。
本稿では,潜伏拡散モデルに対する攻撃に関する新たな知見と,より効果的な保護のための新しいプラグ・アンド・プレイ戦略を提案する。
論文 参考訳(メタデータ) (2023-10-02T18:56:12Z) - DiffProtect: Generate Adversarial Examples with Diffusion Models for
Facial Privacy Protection [64.77548539959501]
DiffProtectは最先端の方法よりも自然に見える暗号化画像を生成する。
例えば、CelebA-HQとFFHQのデータセットで24.5%と25.1%の絶対的な改善が達成されている。
論文 参考訳(メタデータ) (2023-05-23T02:45:49Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。