論文の概要: Visual-Friendly Concept Protection via Selective Adversarial Perturbations
- arxiv url: http://arxiv.org/abs/2408.08518v1
- Date: Fri, 16 Aug 2024 04:14:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-19 16:39:36.927845
- Title: Visual-Friendly Concept Protection via Selective Adversarial Perturbations
- Title(参考訳): 選択的対向摂動による視覚的親和性概念保護
- Authors: Xiaoyue Mi, Fan Tang, Juan Cao, Peng Li, Yang Liu,
- Abstract要約: 本稿では、画像所有者が選択した重要な概念の保護を優先する、Visual-Friendly Concept Protection (VCPro)フレームワークを提案する。
これらの摂動をできるだけ目立たずにするために、緩和された最適化目標を導入する。
実験では、VCProが摂動の可視性と保護効果の間のトレードオフをよりよいものにすることを確認した。
- 参考スコア(独自算出の注目度): 23.780603071185197
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personalized concept generation by tuning diffusion models with a few images raises potential legal and ethical concerns regarding privacy and intellectual property rights. Researchers attempt to prevent malicious personalization using adversarial perturbations. However, previous efforts have mainly focused on the effectiveness of protection while neglecting the visibility of perturbations. They utilize global adversarial perturbations, which introduce noticeable alterations to original images and significantly degrade visual quality. In this work, we propose the Visual-Friendly Concept Protection (VCPro) framework, which prioritizes the protection of key concepts chosen by the image owner through adversarial perturbations with lower perceptibility. To ensure these perturbations are as inconspicuous as possible, we introduce a relaxed optimization objective to identify the least perceptible yet effective adversarial perturbations, solved using the Lagrangian multiplier method. Qualitative and quantitative experiments validate that VCPro achieves a better trade-off between the visibility of perturbations and protection effectiveness, effectively prioritizing the protection of target concepts in images with less perceptible perturbations.
- Abstract(参考訳): いくつかの画像で拡散モデルをチューニングすることで個人化された概念生成は、プライバシーと知的財産権に関する法的および倫理的懸念を提起する。
研究者は敵対的摂動を用いて悪意のある個人化を防ごうとする。
しかし、従来の取り組みは、摂動の可視性を無視しながら、保護の有効性に重点を置いてきた。
原画像に顕著な変化を導入し、視覚的品質を著しく低下させる。
本研究では,画像所有者が選択した重要な概念の保護を,認識能力の低い対角的摂動を通じて優先する,視覚親和性概念保護(VCPro)フレームワークを提案する。
これらの摂動を極力目立たないものにするために,ラグランジアン乗算器法を用いて解いた最小の知覚可能かつ効果的な対向摂動を同定するための緩和最適化手法を提案する。
定性的かつ定量的な実験は、VCProが摂動の可視性と保護効果の間のトレードオフをより良く達成し、知覚可能な摂動の少ない画像におけるターゲット概念の保護を効果的に優先することを検証する。
関連論文リスト
- Privacy Protection in Personalized Diffusion Models via Targeted Cross-Attention Adversarial Attack [5.357486699062561]
本稿では,CoPSAM(Selective Attention Manipulation)による新規かつ効率的な対向攻撃法を提案する。
この目的のために、クリーンなサンプルに付加される知覚不可能なノイズを慎重に構築し、その逆のノイズを得る。
CelebA-HQ顔画像データセットのサブセットに対する実験的検証は、我々のアプローチが既存の手法より優れていることを示す。
論文 参考訳(メタデータ) (2024-11-25T14:39:18Z) - Imperceptible Protection against Style Imitation from Diffusion Models [9.548195579003897]
保護機能を保ちながら視覚的に改善された保護方法を提案する。
我々は,人間の目に敏感な領域に注目する知覚マップを考案した。
また,アートワークがどれだけの強度を保護・動的に調整することが難しいかを予測し,難易度に配慮した保護も導入した。
論文 参考訳(メタデータ) (2024-03-28T09:21:00Z) - SimAC: A Simple Anti-Customization Method for Protecting Face Privacy against Text-to-Image Synthesis of Diffusion Models [16.505593270720034]
本稿では,既存のアンチ・カストマイゼーション手法とシームレスに統合された最適時間ステップを適応的に探索する手法を提案する。
我々のアプローチはアイデンティティの破壊を著しく増加させ、それによってユーザのプライバシと著作権を保護する。
論文 参考訳(メタデータ) (2023-12-13T03:04:22Z) - IMPRESS: Evaluating the Resilience of Imperceptible Perturbations
Against Unauthorized Data Usage in Diffusion-Based Generative AI [52.90082445349903]
拡散ベースの画像生成モデルは、アーティストのスタイルを模倣するアートイメージを作成したり、偽のコンテンツのためにオリジナルの画像を悪意を持って編集することができる。
知覚不能な摂動を追加することによって、元のイメージをそのような不正なデータ使用から保護する試みがいくつかなされている。
本研究では, IMPRESS という浄化摂動プラットフォームを導入し, 非受容性摂動の有効性を保護策として評価する。
論文 参考訳(メタデータ) (2023-10-30T03:33:41Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - PRO-Face S: Privacy-preserving Reversible Obfuscation of Face Images via
Secure Flow [69.78820726573935]
保護フローベースモデルを用いて,プライバシ保護による顔画像の可逆難読化(Reversible Obfuscation of Face image)を略してpro-Face Sと命名する。
本フレームワークでは、Invertible Neural Network(INN)を使用して、入力画像と、その事前難読化されたフォームとを処理し、事前難読化された画像と視覚的に近似したプライバシー保護された画像を生成する。
論文 参考訳(メタデータ) (2023-07-18T10:55:54Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Minimum Noticeable Difference based Adversarial Privacy Preserving Image
Generation [44.2692621807947]
クリーンなものと最小限の知覚差を持つが、ディープラーニングモデルに攻撃できる敵対的プライバシ保護画像を生成するためのフレームワークを開発する。
我々の知る限りでは、これはプライバシー保護のためのMND概念に基づく品質保護の敵画像生成を探求する最初の試みである。
論文 参考訳(メタデータ) (2022-06-17T09:02:12Z) - A Perceptual Distortion Reduction Framework for Adversarial Perturbation
Generation [58.6157191438473]
2つの観点からこの問題に対処するための知覚的歪み低減フレームワークを提案する。
知覚的歪みの制約を提案し,それを敵攻撃の客観的機能に追加し,知覚的歪みと攻撃成功率を共同で最適化する。
論文 参考訳(メタデータ) (2021-05-01T15:08:10Z) - Essential Features: Reducing the Attack Surface of Adversarial
Perturbations with Robust Content-Aware Image Preprocessing [5.831840281853604]
画像に摂動を加えることで、機械学習モデルを騙して誤った予測をすることができる。
このような摂動に対する防御の1つのアプローチは、摂動の影響を取り除くために画像前処理関数を適用することである。
本稿では,イメージをロバストな特徴空間に変換する,Essential Featuresと呼ばれる新しい画像前処理手法を提案する。
論文 参考訳(メタデータ) (2020-12-03T04:40:51Z) - Face Anti-Spoofing Via Disentangled Representation Learning [90.90512800361742]
顔認識システムのセキュリティには、顔の偽造が不可欠だ。
本稿では,画像から生意気な特徴やコンテンツの特徴を乱す顔のアンチ・スプーフィングの新たな視点を提案する。
論文 参考訳(メタデータ) (2020-08-19T03:54:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。