論文の概要: Anti-Tamper Protection for Unauthorized Individual Image Generation
- arxiv url: http://arxiv.org/abs/2508.06325v1
- Date: Tue, 05 Aug 2025 20:34:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.24503
- Title: Anti-Tamper Protection for Unauthorized Individual Image Generation
- Title(参考訳): 不許可な個人画像生成のためのアンチタンパー保護
- Authors: Zelin Li, Ruohan Zong, Yifan Liu, Ruichen Yao, Yaokun Liu, Yang Zhang, Dong Wang,
- Abstract要約: ATP(Anti-Tamper Perturbation)は、摂動のタンパー防御機構である。
ATPは様々な攻撃設定で偽造攻撃を防御する効果を示す。
- 参考スコア(独自算出の注目度): 12.863447377767182
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the advancement of personalized image generation technologies, concerns about forgery attacks that infringe on portrait rights and privacy are growing. To address these concerns, protection perturbation algorithms have been developed to disrupt forgery generation. However, the protection algorithms would become ineffective when forgery attackers apply purification techniques to bypass the protection. To address this issue, we present a novel approach, Anti-Tamper Perturbation (ATP). ATP introduces a tamper-proof mechanism within the perturbation. It consists of protection and authorization perturbations, where the protection perturbation defends against forgery attacks, while the authorization perturbation detects purification-based tampering. Both protection and authorization perturbations are applied in the frequency domain under the guidance of a mask, ensuring that the protection perturbation does not disrupt the authorization perturbation. This design also enables the authorization perturbation to be distributed across all image pixels, preserving its sensitivity to purification-based tampering. ATP demonstrates its effectiveness in defending forgery attacks across various attack settings through extensive experiments, providing a robust solution for protecting individuals' portrait rights and privacy. Our code is available at: https://github.com/Seeyn/Anti-Tamper-Perturbation .
- Abstract(参考訳): パーソナライズされた画像生成技術の進歩に伴い、肖像画の権利やプライバシーを侵害する偽造攻撃に対する懸念が高まっている。
これらの問題に対処するため、偽造発生を阻止するために保護摂動アルゴリズムが開発された。
しかし、偽造攻撃者が保護を回避するために浄化技術を適用すると、保護アルゴリズムは効果がなくなる。
この問題に対処するため,新しいアプローチであるATP(Anti-Tamper Perturbation)を提案する。
ATPは摂動の中でタンパー防御機構を導入する。
保護摂動は偽造攻撃に対して防御され、認可摂動は浄化に基づく改ざんを検出する。
保護摂動と認可摂動は、マスクの指示により周波数領域に印加され、保護摂動が認可摂動を妨害しないようにする。
この設計により、認証の摂動は全画像画素に分散することができ、浄化ベースの改ざんに対する感度を保っている。
ATPは、広範囲な実験を通じて様々な攻撃設定で偽造攻撃を防御する効果を示し、個人の肖像画の権利とプライバシを保護する堅牢なソリューションを提供する。
私たちのコードは、https://github.com/Seeyn/Anti-Tamper-Perturbation で利用可能です。
関連論文リスト
- GuardDoor: Safeguarding Against Malicious Diffusion Editing via Protective Backdoors [8.261182037130407]
GuardDoorは、イメージオーナとモデルプロバイダ間のコラボレーションを促進する、新しくて堅牢な保護メカニズムである。
本手法は,画像前処理操作に対するロバスト性を向上し,大規模展開にスケーラブルであることを示す。
論文 参考訳(メタデータ) (2025-03-05T22:21:44Z) - PersGuard: Preventing Malicious Personalization via Backdoor Attacks on Pre-trained Text-to-Image Diffusion Models [51.458089902581456]
特定の画像の悪質なパーソナライズを防ぐ新しいバックドアベースのアプローチであるPersGuardを紹介する。
我々の手法は既存の技術よりも優れており、プライバシーと著作権保護に対するより堅牢なソリューションを提供する。
論文 参考訳(メタデータ) (2025-02-22T09:47:55Z) - Nearly Zero-Cost Protection Against Mimicry by Personalized Diffusion Models [9.548195579003897]
遅延を低減するための事前学習を導入し、性能劣化を最小限に抑えるための混合摂動手法を提案する。
我々の新しいトレーニング戦略は、複数のVAE特徴空間における保護損失を計算し、推論における適応的目標保護はロバスト性を高める。
実験では、視認性を向上し、推論時間を劇的に短縮した同等の保護性能を示す。
論文 参考訳(メタデータ) (2024-12-16T03:46:45Z) - DiffusionGuard: A Robust Defense Against Malicious Diffusion-based Image Editing [93.45507533317405]
DiffusionGuardは、拡散ベースの画像編集モデルによる不正な編集に対する堅牢で効果的な防御方法である。
拡散過程の初期段階をターゲットとした対向雑音を発生させる新しい目的を提案する。
また,テスト期間中の各種マスクに対するロバスト性を高めるマスク強化手法も導入した。
論文 参考訳(メタデータ) (2024-10-08T05:19:19Z) - ID-Guard: A Universal Framework for Combating Facial Manipulation via Breaking Identification [60.73617868629575]
深層学習に基づく顔操作の誤用は、公民権に重大な脅威をもたらす。
この不正行為を防止するため、操作過程を妨害する積極的な防御法が提案されている。
本稿では,IDガード(ID-Guard)と呼ばれる顔の操作に対処するための普遍的な枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-20T09:30:08Z) - Imperceptible Protection against Style Imitation from Diffusion Models [9.548195579003897]
保護機能を保ちながら視覚的に改善された保護方法を提案する。
我々は,人間の目に敏感な領域に注目する知覚マップを考案した。
また,アートワークがどれだけの強度を保護・動的に調整することが難しいかを予測し,難易度に配慮した保護も導入した。
論文 参考訳(メタデータ) (2024-03-28T09:21:00Z) - IMPRESS: Evaluating the Resilience of Imperceptible Perturbations
Against Unauthorized Data Usage in Diffusion-Based Generative AI [52.90082445349903]
拡散ベースの画像生成モデルは、アーティストのスタイルを模倣するアートイメージを作成したり、偽のコンテンツのためにオリジナルの画像を悪意を持って編集することができる。
知覚不能な摂動を追加することによって、元のイメージをそのような不正なデータ使用から保護する試みがいくつかなされている。
本研究では, IMPRESS という浄化摂動プラットフォームを導入し, 非受容性摂動の有効性を保護策として評価する。
論文 参考訳(メタデータ) (2023-10-30T03:33:41Z) - Targeted Attack Improves Protection against Unauthorized Diffusion Customization [3.1678356835951273]
拡散モデルは画像生成の新たなマイルストーンを築き、公共の関心を喚起する。
カスタマイズのために、未許可の画像に微調整できる。
標的外攻撃を利用した現在の保護は、十分に効果がないように見える。
ターゲット攻撃の導入により、不正拡散のカスタマイズに対する保護をシンプルかつ効果的に行うことを提案する。
論文 参考訳(メタデータ) (2023-10-07T05:24:42Z) - DiffProtect: Generate Adversarial Examples with Diffusion Models for
Facial Privacy Protection [64.77548539959501]
DiffProtectは最先端の方法よりも自然に見える暗号化画像を生成する。
例えば、CelebA-HQとFFHQのデータセットで24.5%と25.1%の絶対的な改善が達成されている。
論文 参考訳(メタデータ) (2023-05-23T02:45:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。