論文の概要: Privacy Protection Against Personalized Text-to-Image Synthesis via Cross-image Consistency Constraints
- arxiv url: http://arxiv.org/abs/2504.12747v1
- Date: Thu, 17 Apr 2025 08:39:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 14:36:53.992234
- Title: Privacy Protection Against Personalized Text-to-Image Synthesis via Cross-image Consistency Constraints
- Title(参考訳): 画像間の整合性制約による個人化テキスト・画像合成に対するプライバシー保護
- Authors: Guanyu Wang, Kailong Wang, Yihao Huang, Mingyi Zhou, Zhang Qing cnwatcher, Geguang Pu, Li Li,
- Abstract要約: Cross-image Anti-Personalization (CAP)は、パーソナライズに対する抵抗性を高める新しいフレームワークである。
本研究では,攻撃繰り返しにおける一貫性損失の影響を適応的にバランスさせる動的比調整戦略を開発する。
- 参考スコア(独自算出の注目度): 9.385284914809294
- License:
- Abstract: The rapid advancement of diffusion models and personalization techniques has made it possible to recreate individual portraits from just a few publicly available images. While such capabilities empower various creative applications, they also introduce serious privacy concerns, as adversaries can exploit them to generate highly realistic impersonations. To counter these threats, anti-personalization methods have been proposed, which add adversarial perturbations to published images to disrupt the training of personalization models. However, existing approaches largely overlook the intrinsic multi-image nature of personalization and instead adopt a naive strategy of applying perturbations independently, as commonly done in single-image settings. This neglects the opportunity to leverage inter-image relationships for stronger privacy protection. Therefore, we advocate for a group-level perspective on privacy protection against personalization. Specifically, we introduce Cross-image Anti-Personalization (CAP), a novel framework that enhances resistance to personalization by enforcing style consistency across perturbed images. Furthermore, we develop a dynamic ratio adjustment strategy that adaptively balances the impact of the consistency loss throughout the attack iterations. Extensive experiments on the classical CelebHQ and VGGFace2 benchmarks show that CAP substantially improves existing methods.
- Abstract(参考訳): 拡散モデルとパーソナライズ技術が急速に進歩し、公開画像から個々の肖像画を再現できるようになった。
このような能力は様々なクリエイティブなアプリケーションに力を与える一方で、敵がそれらを悪用して非常に現実的な偽装を発生させることによって、深刻なプライバシー上の懸念も引き起こす。
これらの脅威に対処するため、個人化モデルのトレーニングを妨害するために、公開画像に敵対的摂動を加える対人化法が提案されている。
しかし、既存のアプローチは、パーソナライゼーションの本質的なマルチイメージの性質を概ね見落とし、代わりに、単一イメージ設定で一般的に行われるように、摂動を個別に適用するというナイーブな戦略を採用する。
これにより、画像間の関係をより強力なプライバシー保護に活用する機会は無視される。
そこで我々は、個人化に対するプライバシー保護に関するグループレベルの視点を提唱する。
具体的には、パーソナライズに対する抵抗性を高める新しいフレームワークであるクロスイメージ・アンチ・パーソナライゼーション(CAP)を導入する。
さらに,攻撃繰り返しにおける一貫性損失の影響を適応的にバランスさせる動的比調整戦略を開発した。
古典的なCelebHQとVGGFace2ベンチマークの大規模な実験は、CAPが既存の手法を大幅に改善していることを示している。
関連論文リスト
- ID-Cloak: Crafting Identity-Specific Cloaks Against Personalized Text-to-Image Generation [54.14901999875917]
本研究は、画像の保護を行うアイデンティティ固有のクロークの作成について検討する。
我々は、モデルが通常の出力から遠ざけることを奨励する新しい目的によって、アイデンティティ固有のクロークを構築する。
提案手法は,個人固有のクローク設定とともに,現実的なプライバシ保護の顕著な進歩を示す。
論文 参考訳(メタデータ) (2025-02-12T03:52:36Z) - Real-time Identity Defenses against Malicious Personalization of Diffusion Models [39.861209610456356]
本研究では,1つの前方パスを通じて対向摂動を生成するニューラルネットワークであるReal-time Identity Defender (RID)を紹介する。
RIDは前例のない効率を実現し、1つのNVIDIA A100 80G GPUで防衛時間は0.12秒である。
我々のモデルは、肖像画権の保護において重要な役割を担い、違法で非倫理的な使用を防止できると想定されている。
論文 参考訳(メタデータ) (2024-12-13T04:27:08Z) - Visual-Friendly Concept Protection via Selective Adversarial Perturbations [23.780603071185197]
本稿では、画像所有者が選択した重要な概念の保護を優先する、Visual-Friendly Concept Protection (VCPro)フレームワークを提案する。
これらの摂動をできるだけ目立たずにするために、緩和された最適化目標を導入する。
実験では、VCProが摂動の可視性と保護効果の間のトレードオフをよりよいものにすることを確認した。
論文 参考訳(メタデータ) (2024-08-16T04:14:28Z) - PALP: Prompt Aligned Personalization of Text-to-Image Models [68.91005384187348]
既存のパーソナライズ手法は、パーソナライズ能力や複雑なプロンプトへのアライメントを損なう。
本稿では,この問題に対処するエフィンスル・プロンプトのためのパーソナライズ手法に着目した新しいアプローチを提案する。
本手法はテキストアライメントの改善に優れ,複雑かつ複雑なプロンプトによる画像作成を可能にする。
論文 参考訳(メタデータ) (2024-01-11T18:35:33Z) - SimAC: A Simple Anti-Customization Method for Protecting Face Privacy against Text-to-Image Synthesis of Diffusion Models [16.505593270720034]
本稿では,既存のアンチ・カストマイゼーション手法とシームレスに統合された最適時間ステップを適応的に探索する手法を提案する。
我々のアプローチはアイデンティティの破壊を著しく増加させ、それによってユーザのプライバシと著作権を保護する。
論文 参考訳(メタデータ) (2023-12-13T03:04:22Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - PRO-Face S: Privacy-preserving Reversible Obfuscation of Face Images via
Secure Flow [69.78820726573935]
保護フローベースモデルを用いて,プライバシ保護による顔画像の可逆難読化(Reversible Obfuscation of Face image)を略してpro-Face Sと命名する。
本フレームワークでは、Invertible Neural Network(INN)を使用して、入力画像と、その事前難読化されたフォームとを処理し、事前難読化された画像と視覚的に近似したプライバシー保護された画像を生成する。
論文 参考訳(メタデータ) (2023-07-18T10:55:54Z) - Content-based Unrestricted Adversarial Attack [53.181920529225906]
本稿では,コンテンツベース非制限攻撃という新たな非制限攻撃フレームワークを提案する。
自然像を表す低次元多様体を利用することで、像を多様体上に写像し、その逆方向に沿って最適化する。
論文 参考訳(メタデータ) (2023-05-18T02:57:43Z) - Towards Prompt-robust Face Privacy Protection via Adversarial Decoupling
Augmentation Framework [20.652130361862053]
顔認識保護アルゴリズムの防御性能を高めるために,Adversarial Decoupling Augmentation Framework (ADAF)を提案する。
ADAFは、様々な攻撃プロンプトに対する防御安定のために、多レベルテキスト関連の拡張を導入している。
論文 参考訳(メタデータ) (2023-05-06T09:00:50Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。