論文の概要: Generative Model-Based Attack on Learnable Image Encryption for
Privacy-Preserving Deep Learning
- arxiv url: http://arxiv.org/abs/2303.05036v1
- Date: Thu, 9 Mar 2023 05:00:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-10 16:14:27.761667
- Title: Generative Model-Based Attack on Learnable Image Encryption for
Privacy-Preserving Deep Learning
- Title(参考訳): プライバシー保護深層学習のための学習可能な画像暗号化に対する生成モデルに基づく攻撃
- Authors: AprilPyone MaungMaung and Hitoshi Kiya
- Abstract要約: 本稿では,プライバシ保護深層学習のための学習可能な画像暗号化手法に対する,新たな生成モデルに基づく攻撃を提案する。
我々は、StyleGANベースモデルと潜伏拡散ベースモデルという、最先端の2つの生成モデルを使用している。
その結果,提案手法により再構成された画像は,通常の画像と知覚的に類似していることがわかった。
- 参考スコア(独自算出の注目度): 14.505867475659276
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a novel generative model-based attack on learnable
image encryption methods proposed for privacy-preserving deep learning. Various
learnable encryption methods have been studied to protect the sensitive visual
information of plain images, and some of them have been investigated to be
robust enough against all existing attacks. However, previous attacks on image
encryption focus only on traditional cryptanalytic attacks or reverse
translation models, so these attacks cannot recover any visual information if a
block-scrambling encryption step, which effectively destroys global
information, is applied. Accordingly, in this paper, generative models are
explored to evaluate whether such models can restore sensitive visual
information from encrypted images for the first time. We first point out that
encrypted images have some similarity with plain images in the embedding space.
By taking advantage of leaked information from encrypted images, we propose a
guided generative model as an attack on learnable image encryption to recover
personally identifiable visual information. We implement the proposed attack in
two ways by utilizing two state-of-the-art generative models: a StyleGAN-based
model and latent diffusion-based one. Experiments were carried out on the
CelebA-HQ and ImageNet datasets. Results show that images reconstructed by the
proposed method have perceptual similarities to plain images.
- Abstract(参考訳): 本稿では,プライバシー保護深層学習のための学習可能な画像暗号化手法に対する,新たな生成モデルに基づく攻撃を提案する。
様々な学習可能な暗号化手法が、画像の繊細な視覚情報を保護するために研究され、それらのいくつかは、既存の攻撃に対して十分に堅牢であるように研究されている。
しかし、以前の画像暗号化攻撃は従来の暗号解析攻撃や逆変換モデルにのみ焦点をあてていたため、ブロックスクランブル暗号化ステップが効果的にグローバル情報を破壊する場合、これらの攻撃は視覚情報を回復することはできない。
そこで本稿では,このモデルが暗号化画像からセンシティブな視覚情報を初めて復元できるかどうかを評価するために,生成モデルについて検討する。
まず,暗号化画像は埋め込み空間におけるプレーン画像と類似点があることを指摘した。
暗号化画像からの漏洩情報を活用することで,学習可能な画像暗号化に対する攻撃として,個人識別可能な視覚情報を復元するための誘導生成モデルを提案する。
提案手法は,スタイルガンモデルと潜在拡散モデルという2つの最先端生成モデルを用いて2つの手法で実装する。
CelebA-HQとImageNetのデータセットで実験が行われた。
その結果,提案手法により再構成された画像は,プレーン画像と知覚的類似性を有することがわかった。
関連論文リスト
- Unveiling Hidden Visual Information: A Reconstruction Attack Against Adversarial Visual Information Hiding [6.649753747542211]
代表的な画像暗号化法は、敵対的視覚情報隠蔽(AVIH)である。
AVIH法では、型I対逆例法は、全く異なるように見えるが、依然としてマシンによって元のものとして認識されている画像を生成する。
本稿では,AVIH暗号方式に対する二重戦略DR攻撃を,生成的対逆損失と(2)拡張的ID損失を取り入れて導入する。
論文 参考訳(メタデータ) (2024-08-08T06:58:48Z) - Attack GAN (AGAN ): A new Security Evaluation Tool for Perceptual Encryption [1.6385815610837167]
最先端(SOTA)ディープラーニングモデルのトレーニングには大量のデータが必要である。
知覚暗号化は、イメージを認識不能なフォーマットに変換して、トレーニングデータ内のセンシティブな視覚情報を保護する。
これは、モデルの精度を大幅に下げるコストが伴う。
Adversarial Visual Information Hiding (AVIH)は、人間の目には認識できない暗号化された画像を作成することによって、画像のプライバシを保護するために、この欠点を克服する。
論文 参考訳(メタデータ) (2024-07-09T06:03:32Z) - Recoverable Privacy-Preserving Image Classification through Noise-like
Adversarial Examples [26.026171363346975]
分類などのクラウドベースの画像関連サービスが重要になっている。
本研究では,新しいプライバシー保護画像分類手法を提案する。
暗号化された画像は、秘密鍵を使用して、高い忠実度(保存可能な)で元の形式に復号することができる。
論文 参考訳(メタデータ) (2023-10-19T13:01:58Z) - BAGM: A Backdoor Attack for Manipulating Text-to-Image Generative Models [54.19289900203071]
テキストから画像への生成人工知能の普及は、大衆の関心を集めている。
ユーザを微妙に操作するコンテンツを生成するために,この技術を攻撃できることを実証する。
テキストから画像生成モデル(BAGM)に対するバックドアアタックを提案する。
我々の攻撃は、生成過程の3段階にわたる3つの一般的なテキスト・画像生成モデルをターゲットにした最初の攻撃である。
論文 参考訳(メタデータ) (2023-07-31T08:34:24Z) - PRO-Face S: Privacy-preserving Reversible Obfuscation of Face Images via
Secure Flow [69.78820726573935]
保護フローベースモデルを用いて,プライバシ保護による顔画像の可逆難読化(Reversible Obfuscation of Face image)を略してpro-Face Sと命名する。
本フレームワークでは、Invertible Neural Network(INN)を使用して、入力画像と、その事前難読化されたフォームとを処理し、事前難読化された画像と視覚的に近似したプライバシー保護された画像を生成する。
論文 参考訳(メタデータ) (2023-07-18T10:55:54Z) - DIAGNOSIS: Detecting Unauthorized Data Usages in Text-to-image Diffusion Models [79.71665540122498]
保護されたデータセットにインジェクトされたコンテンツを配置することで、不正なデータ利用を検出する手法を提案する。
具体的には、ステルス画像ワープ機能を用いて、これらの画像にユニークな内容を追加することにより、保護された画像を修正する。
このモデルが注入されたコンテンツを記憶したかどうかを解析することにより、不正に不正に使用したモデルを検出することができる。
論文 参考訳(メタデータ) (2023-07-06T16:27:39Z) - Human-imperceptible, Machine-recognizable Images [76.01951148048603]
より良い開発AIシステムと、センシティブなトレーニングデータから距離を置くことの間の、ソフトウェアエンジニアに関する大きな対立が露呈している。
画像が暗号化され、人間に認識され、機械に認識される」という、効率的なプライバシー保護学習パラダイムを提案する。
提案手法は,機械が認識可能な情報を保存しながら,暗号化された画像が人間に認識されなくなることを保証できることを示す。
論文 参考訳(メタデータ) (2023-06-06T13:41:37Z) - StyleGAN Encoder-Based Attack for Block Scrambled Face Images [14.505867475659276]
本稿では,スクランブルされた顔画像,特に Encryption-then-Compression (EtC) 適用画像のブロック手法を提案する。
暗号化された画像から同一の画像を復元する代わりに、暗号化された画像から識別可能な情報を明らかにするスタイルの復元に重点を置いている。
現状の攻撃方法はEtC画像から知覚情報を復元することはできないが,本手法では,髪の色,肌の色,眼鏡,性別などの個人識別情報を開示する。
論文 参考訳(メタデータ) (2022-09-16T14:12:39Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。