論文の概要: Anti-Aesthetics: Protecting Facial Privacy against Customized Text-to-Image Synthesis
- arxiv url: http://arxiv.org/abs/2504.12129v2
- Date: Wed, 23 Apr 2025 13:23:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:52.549581
- Title: Anti-Aesthetics: Protecting Facial Privacy against Customized Text-to-Image Synthesis
- Title(参考訳): アンチ審美: カスタマイズされたテキスト・画像合成に対する顔のプライバシ保護
- Authors: Songping Wang, Yueming Lyu, Shiqi Liu, Ning Li, Tong Tong, Hao Sun, Caifeng Shan,
- Abstract要約: 審美的方法を完全に探求する階層的アンチ審美(HAA)フレームワークを提案する。
我々のHAAは、カスタマイズ世代において、グローバルからローカルレベルへのアンチ美学の目標を効果的に達成します。
- 参考スコア(独自算出の注目度): 18.743360923809217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rise of customized diffusion models has spurred a boom in personalized visual content creation, but also poses risks of malicious misuse, severely threatening personal privacy and copyright protection. Some studies show that the aesthetic properties of images are highly positively correlated with human perception of image quality. Inspired by this, we approach the problem from a novel and intriguing aesthetic perspective to degrade the generation quality of maliciously customized models, thereby achieving better protection of facial identity. Specifically, we propose a Hierarchical Anti-Aesthetic (HAA) framework to fully explore aesthetic cues, which consists of two key branches: 1) Global Anti-Aesthetics: By establishing a global anti-aesthetic reward mechanism and a global anti-aesthetic loss, it can degrade the overall aesthetics of the generated content; 2) Local Anti-Aesthetics: A local anti-aesthetic reward mechanism and a local anti-aesthetic loss are designed to guide adversarial perturbations to disrupt local facial identity. By seamlessly integrating both branches, our HAA effectively achieves the goal of anti-aesthetics from a global to a local level during customized generation. Extensive experiments show that HAA outperforms existing SOTA methods largely in identity removal, providing a powerful tool for protecting facial privacy and copyright.
- Abstract(参考訳): カスタマイズされた拡散モデルの台頭は、パーソナライズされたビジュアルコンテンツ作成のブームを呼んだが、悪意のある誤用のリスクも生じ、個人のプライバシーと著作権保護を著しく脅かしている。
いくつかの研究では、画像の美的特性は、人間の画像品質の知覚と非常に正の相関があることが示されている。
そこで我々は,この問題を新規で興味深い美的視点からアプローチし,悪意あるカスタマイズモデルの生成品質を低下させ,顔認証のより優れた保護を実現する。
具体的には,2つのキーブランチから構成される審美的手がかりを十分に探求する階層的アンチ審美(HAA)フレームワークを提案する。
1)グローバルアンチ審美学:グローバルアンチ審美的報酬機構とグローバルアンチ審美的損失を確立することにより、生成されたコンテンツの全体的な審美性を低下させることができる。
2) 局所抗審美学: 局所抗審美的報酬機構と局所抗審美的損失は, 対側摂動を誘導し, 局所的な顔の同一性を阻害するように設計されている。
両ブランチをシームレスに統合することにより,HAAは,カスタマイズ世代において,グローバルからローカルレベルへのアンチ美学の目標を効果的に達成する。
大規模な実験によると、HAAは既存のSOTAメソッドよりも、主にアイデンティティ除去に優れており、顔のプライバシーと著作権を保護する強力なツールを提供する。
関連論文リスト
- SIDeR: Semantic Identity Decoupling for Unrestricted Face Privacy [53.75084833636302]
本稿では,非制限顔プライバシー保護のためのセマンティックデカップリング駆動フレームワークSIDeRを提案する。
SIDeRは、顔画像をマシン認識可能な識別特徴ベクトルと視覚的に知覚可能なセマンティックな外観成分に分解する。
認証されたアクセスのために、SIDeRは正しいパスワードが提供されるときに元の形式に復元できる。
論文 参考訳(メタデータ) (2026-02-04T19:30:48Z) - Aesthetic Alignment Risks Assimilation: How Image Generation and Reward Models Reinforce Beauty Bias and Ideological "Censorship" [10.879152680774318]
一般的な審美的嗜好に過度に適応する画像生成モデルは、ユーザの意図と矛盾する。
我々は、広スペクトル美学データセットを構築し、最先端の生成と報酬モデルを評価することで、このバイアスをテストする。
論文 参考訳(メタデータ) (2025-12-09T00:24:29Z) - Adapter Shield: A Unified Framework with Built-in Authentication for Preventing Unauthorized Zero-Shot Image-to-Image Generation [74.5813283875938]
ゼロショット画像・画像生成は知的財産権侵害に重大なリスクをもたらす。
この研究は、個人イメージを誤用から守ることを目的とした、最初の普遍的および認証統合ソリューションであるAdapter Shieldを提示する。
提案手法は, ゼロショット画像合成の不正化において, 最先端の防御を克服する。
論文 参考訳(メタデータ) (2025-11-25T04:49:16Z) - Fragile by Design: On the Limits of Adversarial Defenses in Personalized Generation [26.890796322896346]
Anti-DreamBoothのような防御機構は、顔認証漏洩のリスクを軽減する。
これらの手法の2つの重要かつ見過ごされた限界を同定する。
その結果、現在の手法はいずれもそのような脅威下での保護効果を維持していないことが明らかとなった。
論文 参考訳(メタデータ) (2025-11-13T14:56:25Z) - VCE: Safe Autoregressive Image Generation via Visual Contrast Exploitation [57.36681904639463]
自己回帰的テキスト・画像モデルを保護する方法はまだ未検討のままである。
コンテンツセマンティクスから安全でない概念を正確に分離する新しいフレームワークであるVisual Contrast Exploitation (VCE)を提案する。
提案手法は,安全でない概念を消去し,無関係な概念の整合性を保ちながら,最先端の成果を効果的に確保できることを実証する。
論文 参考訳(メタデータ) (2025-09-21T09:00:27Z) - CraftGraffiti: Exploring Human Identity with Custom Graffiti Art via Facial-Preserving Diffusion Models [43.96017763034248]
極端なスタイリスティック・トランスフォーメーションの下で顔のアイデンティティを保持することは、生成芸術において大きな課題である。
本稿では,顔の特徴保存を主目的としたエンドツーエンドのテキストガイドグラフィティ生成フレームワークCraftGraffitiを紹介する。
CraftGraffitiはまず、LoRAで調整された事前訓練された拡散トランスフォーマーを介してグラフィティスタイルのトランスファーを適用し、その後、顔に一貫性のある自己認識機構を通じてアイデンティティの忠実さを強制する。
論文 参考訳(メタデータ) (2025-08-28T10:38:13Z) - Privacy Protection Against Personalized Text-to-Image Synthesis via Cross-image Consistency Constraints [9.385284914809294]
Cross-image Anti-Personalization (CAP)は、パーソナライズに対する抵抗性を高める新しいフレームワークである。
本研究では,攻撃繰り返しにおける一貫性損失の影響を適応的にバランスさせる動的比調整戦略を開発する。
論文 参考訳(メタデータ) (2025-04-17T08:39:32Z) - Enhancing Facial Privacy Protection via Weakening Diffusion Purification [36.33027625681024]
ソーシャルメディアは個々の肖像画を広く共有し、深刻なプライバシーリスクを生じさせている。
近年の手法では、拡散モデルを用いて、プライバシー保護のための対向顔画像を生成する。
本研究では,非条件埋め込みを学習し,対向的修正のための学習能力を向上させることを提案する。
我々は、元の画像と生成された画像の間の構造的一貫性を維持するために、アイデンティティ保存構造を統合する。
論文 参考訳(メタデータ) (2025-03-13T13:27:53Z) - PersGuard: Preventing Malicious Personalization via Backdoor Attacks on Pre-trained Text-to-Image Diffusion Models [51.458089902581456]
特定の画像の悪質なパーソナライズを防ぐ新しいバックドアベースのアプローチであるPersGuardを紹介する。
我々の手法は既存の技術よりも優れており、プライバシーと著作権保護に対するより堅牢なソリューションを提供する。
論文 参考訳(メタデータ) (2025-02-22T09:47:55Z) - iFADIT: Invertible Face Anonymization via Disentangled Identity Transform [51.123936665445356]
顔の匿名化は、個人のプライバシーを保護するために顔の視覚的アイデンティティを隠すことを目的としている。
Invertible Face Anonymization の頭字語 iFADIT を Disentangled Identity Transform を用いて提案する。
論文 参考訳(メタデータ) (2025-01-08T10:08:09Z) - Privacy Protection in Personalized Diffusion Models via Targeted Cross-Attention Adversarial Attack [5.357486699062561]
本稿では,CoPSAM(Selective Attention Manipulation)による新規かつ効率的な対向攻撃法を提案する。
この目的のために、クリーンなサンプルに付加される知覚不可能なノイズを慎重に構築し、その逆のノイズを得る。
CelebA-HQ顔画像データセットのサブセットに対する実験的検証は、我々のアプローチが既存の手法より優れていることを示す。
論文 参考訳(メタデータ) (2024-11-25T14:39:18Z) - ID-Guard: A Universal Framework for Combating Facial Manipulation via Breaking Identification [60.73617868629575]
深層学習に基づく顔操作の誤用は、公民権に重大な脅威をもたらす。
この不正行為を防止するため、操作過程を妨害する積極的な防御法が提案されている。
本稿では,IDガード(ID-Guard)と呼ばれる顔の操作に対処するための普遍的な枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-20T09:30:08Z) - Visual-Friendly Concept Protection via Selective Adversarial Perturbations [23.780603071185197]
本稿では、画像所有者が選択した重要な概念の保護を優先する、Visual-Friendly Concept Protection (VCPro)フレームワークを提案する。
これらの摂動をできるだけ目立たずにするために、緩和された最適化目標を導入する。
実験では、VCProが摂動の可視性と保護効果の間のトレードオフをよりよいものにすることを確認した。
論文 参考訳(メタデータ) (2024-08-16T04:14:28Z) - Transferable Adversarial Facial Images for Privacy Protection [15.211743719312613]
視覚的品質を維持しつつ、転送性を改善した新しい顔プライバシー保護方式を提案する。
生成モデルの潜在空間をトラバースするために,まずグローバルな逆潜時探索を利用する。
次に、視覚的アイデンティティ情報を保存するための重要なランドマーク正規化モジュールを導入する。
論文 参考訳(メタデータ) (2024-07-18T02:16:11Z) - Adversarial Perturbations Cannot Reliably Protect Artists From Generative AI [61.35083814817094]
オンラインで公開されたアートワークに小さな敵対的摂動を取り入れた、スタイルの模倣に対する保護ツールがいくつか開発されている。
画像アップスケーリングのような低努力と「オフ・ザ・シェルフ」技術は、既存の保護を著しく劣化させる堅牢な模倣手法を作成するのに十分であることがわかった。
我々は,敵対的摂動に基づくツールが,生成AIの誤用からアーティストを確実に保護できないことを警告する。
論文 参考訳(メタデータ) (2024-06-17T18:51:45Z) - Imperceptible Protection against Style Imitation from Diffusion Models [9.548195579003897]
保護機能を保ちながら視覚的に改善された保護方法を提案する。
我々は,人間の目に敏感な領域に注目する知覚マップを考案した。
また,アートワークがどれだけの強度を保護・動的に調整することが難しいかを予測し,難易度に配慮した保護も導入した。
論文 参考訳(メタデータ) (2024-03-28T09:21:00Z) - Artwork Protection Against Neural Style Transfer Using Locally Adaptive Adversarial Color Attack [9.072011414658512]
ニューラルスタイル転送(NST)は、ある画像のスタイルと他の画像の内容を組み合わせることで、新しい画像を生成する。
そこで我々は,アーティストが芸術作品を無許可のスタイル転送から保護するための局所適応型カラーアタック (LAACA) を提案する。
論文 参考訳(メタデータ) (2024-01-18T01:18:59Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。