論文の概要: Anti-Aesthetics: Protecting Facial Privacy against Customized Text-to-Image Synthesis
- arxiv url: http://arxiv.org/abs/2504.12129v2
- Date: Wed, 23 Apr 2025 13:23:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:52.549581
- Title: Anti-Aesthetics: Protecting Facial Privacy against Customized Text-to-Image Synthesis
- Title(参考訳): アンチ審美: カスタマイズされたテキスト・画像合成に対する顔のプライバシ保護
- Authors: Songping Wang, Yueming Lyu, Shiqi Liu, Ning Li, Tong Tong, Hao Sun, Caifeng Shan,
- Abstract要約: 審美的方法を完全に探求する階層的アンチ審美(HAA)フレームワークを提案する。
我々のHAAは、カスタマイズ世代において、グローバルからローカルレベルへのアンチ美学の目標を効果的に達成します。
- 参考スコア(独自算出の注目度): 18.743360923809217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rise of customized diffusion models has spurred a boom in personalized visual content creation, but also poses risks of malicious misuse, severely threatening personal privacy and copyright protection. Some studies show that the aesthetic properties of images are highly positively correlated with human perception of image quality. Inspired by this, we approach the problem from a novel and intriguing aesthetic perspective to degrade the generation quality of maliciously customized models, thereby achieving better protection of facial identity. Specifically, we propose a Hierarchical Anti-Aesthetic (HAA) framework to fully explore aesthetic cues, which consists of two key branches: 1) Global Anti-Aesthetics: By establishing a global anti-aesthetic reward mechanism and a global anti-aesthetic loss, it can degrade the overall aesthetics of the generated content; 2) Local Anti-Aesthetics: A local anti-aesthetic reward mechanism and a local anti-aesthetic loss are designed to guide adversarial perturbations to disrupt local facial identity. By seamlessly integrating both branches, our HAA effectively achieves the goal of anti-aesthetics from a global to a local level during customized generation. Extensive experiments show that HAA outperforms existing SOTA methods largely in identity removal, providing a powerful tool for protecting facial privacy and copyright.
- Abstract(参考訳): カスタマイズされた拡散モデルの台頭は、パーソナライズされたビジュアルコンテンツ作成のブームを呼んだが、悪意のある誤用のリスクも生じ、個人のプライバシーと著作権保護を著しく脅かしている。
いくつかの研究では、画像の美的特性は、人間の画像品質の知覚と非常に正の相関があることが示されている。
そこで我々は,この問題を新規で興味深い美的視点からアプローチし,悪意あるカスタマイズモデルの生成品質を低下させ,顔認証のより優れた保護を実現する。
具体的には,2つのキーブランチから構成される審美的手がかりを十分に探求する階層的アンチ審美(HAA)フレームワークを提案する。
1)グローバルアンチ審美学:グローバルアンチ審美的報酬機構とグローバルアンチ審美的損失を確立することにより、生成されたコンテンツの全体的な審美性を低下させることができる。
2) 局所抗審美学: 局所抗審美的報酬機構と局所抗審美的損失は, 対側摂動を誘導し, 局所的な顔の同一性を阻害するように設計されている。
両ブランチをシームレスに統合することにより,HAAは,カスタマイズ世代において,グローバルからローカルレベルへのアンチ美学の目標を効果的に達成する。
大規模な実験によると、HAAは既存のSOTAメソッドよりも、主にアイデンティティ除去に優れており、顔のプライバシーと著作権を保護する強力なツールを提供する。
関連論文リスト
- Privacy Protection Against Personalized Text-to-Image Synthesis via Cross-image Consistency Constraints [9.385284914809294]
Cross-image Anti-Personalization (CAP)は、パーソナライズに対する抵抗性を高める新しいフレームワークである。
本研究では,攻撃繰り返しにおける一貫性損失の影響を適応的にバランスさせる動的比調整戦略を開発する。
論文 参考訳(メタデータ) (2025-04-17T08:39:32Z) - Enhancing Facial Privacy Protection via Weakening Diffusion Purification [36.33027625681024]
ソーシャルメディアは個々の肖像画を広く共有し、深刻なプライバシーリスクを生じさせている。
近年の手法では、拡散モデルを用いて、プライバシー保護のための対向顔画像を生成する。
本研究では,非条件埋め込みを学習し,対向的修正のための学習能力を向上させることを提案する。
我々は、元の画像と生成された画像の間の構造的一貫性を維持するために、アイデンティティ保存構造を統合する。
論文 参考訳(メタデータ) (2025-03-13T13:27:53Z) - PersGuard: Preventing Malicious Personalization via Backdoor Attacks on Pre-trained Text-to-Image Diffusion Models [51.458089902581456]
特定の画像の悪質なパーソナライズを防ぐ新しいバックドアベースのアプローチであるPersGuardを紹介する。
我々の手法は既存の技術よりも優れており、プライバシーと著作権保護に対するより堅牢なソリューションを提供する。
論文 参考訳(メタデータ) (2025-02-22T09:47:55Z) - iFADIT: Invertible Face Anonymization via Disentangled Identity Transform [51.123936665445356]
顔の匿名化は、個人のプライバシーを保護するために顔の視覚的アイデンティティを隠すことを目的としている。
Invertible Face Anonymization の頭字語 iFADIT を Disentangled Identity Transform を用いて提案する。
論文 参考訳(メタデータ) (2025-01-08T10:08:09Z) - Privacy Protection in Personalized Diffusion Models via Targeted Cross-Attention Adversarial Attack [5.357486699062561]
本稿では,CoPSAM(Selective Attention Manipulation)による新規かつ効率的な対向攻撃法を提案する。
この目的のために、クリーンなサンプルに付加される知覚不可能なノイズを慎重に構築し、その逆のノイズを得る。
CelebA-HQ顔画像データセットのサブセットに対する実験的検証は、我々のアプローチが既存の手法より優れていることを示す。
論文 参考訳(メタデータ) (2024-11-25T14:39:18Z) - ID-Guard: A Universal Framework for Combating Facial Manipulation via Breaking Identification [60.73617868629575]
深層学習に基づく顔操作の誤用は、公民権に重大な脅威をもたらす。
この不正行為を防止するため、操作過程を妨害する積極的な防御法が提案されている。
本稿では,IDガード(ID-Guard)と呼ばれる顔の操作に対処するための普遍的な枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-20T09:30:08Z) - Visual-Friendly Concept Protection via Selective Adversarial Perturbations [23.780603071185197]
本稿では、画像所有者が選択した重要な概念の保護を優先する、Visual-Friendly Concept Protection (VCPro)フレームワークを提案する。
これらの摂動をできるだけ目立たずにするために、緩和された最適化目標を導入する。
実験では、VCProが摂動の可視性と保護効果の間のトレードオフをよりよいものにすることを確認した。
論文 参考訳(メタデータ) (2024-08-16T04:14:28Z) - Transferable Adversarial Facial Images for Privacy Protection [15.211743719312613]
視覚的品質を維持しつつ、転送性を改善した新しい顔プライバシー保護方式を提案する。
生成モデルの潜在空間をトラバースするために,まずグローバルな逆潜時探索を利用する。
次に、視覚的アイデンティティ情報を保存するための重要なランドマーク正規化モジュールを導入する。
論文 参考訳(メタデータ) (2024-07-18T02:16:11Z) - Adversarial Perturbations Cannot Reliably Protect Artists From Generative AI [61.35083814817094]
オンラインで公開されたアートワークに小さな敵対的摂動を取り入れた、スタイルの模倣に対する保護ツールがいくつか開発されている。
画像アップスケーリングのような低努力と「オフ・ザ・シェルフ」技術は、既存の保護を著しく劣化させる堅牢な模倣手法を作成するのに十分であることがわかった。
我々は,敵対的摂動に基づくツールが,生成AIの誤用からアーティストを確実に保護できないことを警告する。
論文 参考訳(メタデータ) (2024-06-17T18:51:45Z) - Imperceptible Protection against Style Imitation from Diffusion Models [9.548195579003897]
保護機能を保ちながら視覚的に改善された保護方法を提案する。
我々は,人間の目に敏感な領域に注目する知覚マップを考案した。
また,アートワークがどれだけの強度を保護・動的に調整することが難しいかを予測し,難易度に配慮した保護も導入した。
論文 参考訳(メタデータ) (2024-03-28T09:21:00Z) - Artwork Protection Against Neural Style Transfer Using Locally Adaptive Adversarial Color Attack [9.072011414658512]
ニューラルスタイル転送(NST)は、ある画像のスタイルと他の画像の内容を組み合わせることで、新しい画像を生成する。
そこで我々は,アーティストが芸術作品を無許可のスタイル転送から保護するための局所適応型カラーアタック (LAACA) を提案する。
論文 参考訳(メタデータ) (2024-01-18T01:18:59Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。