論文の概要: Unveiling Hidden Visual Information: A Reconstruction Attack Against Adversarial Visual Information Hiding
- arxiv url: http://arxiv.org/abs/2408.04261v1
- Date: Thu, 8 Aug 2024 06:58:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-09 16:29:12.411781
- Title: Unveiling Hidden Visual Information: A Reconstruction Attack Against Adversarial Visual Information Hiding
- Title(参考訳): 隠れた視覚情報を公開する:敵対的視覚情報隠蔽に対する再構築攻撃
- Authors: Jonggyu Jang, Hyeonsu Lyu, Seongjin Hwang, Hyun Jong Yang,
- Abstract要約: 代表的な画像暗号化法は、敵対的視覚情報隠蔽(AVIH)である。
AVIH法では、型I対逆例法は、全く異なるように見えるが、依然としてマシンによって元のものとして認識されている画像を生成する。
本稿では,AVIH暗号方式に対する二重戦略DR攻撃を,生成的対逆損失と(2)拡張的ID損失を取り入れて導入する。
- 参考スコア(独自算出の注目度): 6.649753747542211
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates the security vulnerabilities of adversarial-example-based image encryption by executing data reconstruction (DR) attacks on encrypted images. A representative image encryption method is the adversarial visual information hiding (AVIH), which uses type-I adversarial example training to protect gallery datasets used in image recognition tasks. In the AVIH method, the type-I adversarial example approach creates images that appear completely different but are still recognized by machines as the original ones. Additionally, the AVIH method can restore encrypted images to their original forms using a predefined private key generative model. For the best security, assigning a unique key to each image is recommended; however, storage limitations may necessitate some images sharing the same key model. This raises a crucial security question for AVIH: How many images can safely share the same key model without being compromised by a DR attack? To address this question, we introduce a dual-strategy DR attack against the AVIH encryption method by incorporating (1) generative-adversarial loss and (2) augmented identity loss, which prevent DR from overfitting -- an issue akin to that in machine learning. Our numerical results validate this approach through image recognition and re-identification benchmarks, demonstrating that our strategy can significantly enhance the quality of reconstructed images, thereby requiring fewer key-sharing encrypted images. Our source code to reproduce our results will be available soon.
- Abstract(参考訳): 本稿では,データ再構成(DR)攻撃を暗号化画像に対して実行することにより,逆例ベースの画像暗号化のセキュリティ脆弱性について検討する。
代表的な画像暗号化法は、画像認識タスクで使用されるギャラリーデータセットを保護するために、I型対角的サンプルトレーニングを使用する、対角的視覚情報隠蔽(AVIH)である。
AVIH法では、型I対逆例法は、全く異なるように見えるが、依然としてマシンによって元のものとして認識されている画像を生成する。
さらに、AVIH法は、予め定義された秘密鍵生成モデルを用いて、暗号化された画像を元の形式に復元することができる。
最高のセキュリティのために、各イメージにユニークなキーを割り当てることが推奨されるが、ストレージの制限は、同じキーモデルを共有するいくつかのイメージを必要とする可能性がある。
AVIHには重要なセキュリティ上の疑問が浮かび上がっています。DR攻撃によって侵害されることなく、同じキーモデルを安全に共有できる画像はいくつありますか?
この問題に対処するために,(1) 生成的逆転損失と(2) 拡張ID損失を取り入れたAVIH暗号方式に対する二重戦略DR攻撃を導入し,DRが過度に適合することを防止する。
この手法を画像認識と再同定ベンチマークを用いて検証し, 再構成画像の品質を著しく向上させることで, 暗号画像のキー共有を少なくすることができることを示した。
結果の再現を行うソースコードが近く公開されます。
関連論文リスト
- Attack GAN (AGAN ): A new Security Evaluation Tool for Perceptual Encryption [1.6385815610837167]
最先端(SOTA)ディープラーニングモデルのトレーニングには大量のデータが必要である。
知覚暗号化は、イメージを認識不能なフォーマットに変換して、トレーニングデータ内のセンシティブな視覚情報を保護する。
これは、モデルの精度を大幅に下げるコストが伴う。
Adversarial Visual Information Hiding (AVIH)は、人間の目には認識できない暗号化された画像を作成することによって、画像のプライバシを保護するために、この欠点を克服する。
論文 参考訳(メタデータ) (2024-07-09T06:03:32Z) - Recoverable Privacy-Preserving Image Classification through Noise-like
Adversarial Examples [26.026171363346975]
分類などのクラウドベースの画像関連サービスが重要になっている。
本研究では,新しいプライバシー保護画像分類手法を提案する。
暗号化された画像は、秘密鍵を使用して、高い忠実度(保存可能な)で元の形式に復号することができる。
論文 参考訳(メタデータ) (2023-10-19T13:01:58Z) - PRO-Face S: Privacy-preserving Reversible Obfuscation of Face Images via
Secure Flow [69.78820726573935]
保護フローベースモデルを用いて,プライバシ保護による顔画像の可逆難読化(Reversible Obfuscation of Face image)を略してpro-Face Sと命名する。
本フレームワークでは、Invertible Neural Network(INN)を使用して、入力画像と、その事前難読化されたフォームとを処理し、事前難読化された画像と視覚的に近似したプライバシー保護された画像を生成する。
論文 参考訳(メタデータ) (2023-07-18T10:55:54Z) - Human-imperceptible, Machine-recognizable Images [76.01951148048603]
より良い開発AIシステムと、センシティブなトレーニングデータから距離を置くことの間の、ソフトウェアエンジニアに関する大きな対立が露呈している。
画像が暗号化され、人間に認識され、機械に認識される」という、効率的なプライバシー保護学習パラダイムを提案する。
提案手法は,機械が認識可能な情報を保存しながら,暗号化された画像が人間に認識されなくなることを保証できることを示す。
論文 参考訳(メタデータ) (2023-06-06T13:41:37Z) - DiffProtect: Generate Adversarial Examples with Diffusion Models for
Facial Privacy Protection [64.77548539959501]
DiffProtectは最先端の方法よりも自然に見える暗号化画像を生成する。
例えば、CelebA-HQとFFHQのデータセットで24.5%と25.1%の絶対的な改善が達成されている。
論文 参考訳(メタデータ) (2023-05-23T02:45:49Z) - Attribute-Guided Encryption with Facial Texture Masking [64.77548539959501]
本稿では,顔認識システムからユーザを保護するために,顔テクスチャマスキングを用いた属性ガイド暗号化を提案する。
提案手法は,最先端の手法よりも自然な画像を生成する。
論文 参考訳(メタデータ) (2023-05-22T23:50:43Z) - RiDDLE: Reversible and Diversified De-identification with Latent
Encryptor [57.66174700276893]
本研究は、Reversible and Diversified De-identification with Latent Encryptorの略であるRiDDLEを提示する。
事前に学習したStyleGAN2ジェネレータ上に構築されたRiDDLEは、潜伏空間内の顔のアイデンティティを暗号化して復号する。
論文 参考訳(メタデータ) (2023-03-09T11:03:52Z) - Generative Model-Based Attack on Learnable Image Encryption for
Privacy-Preserving Deep Learning [14.505867475659276]
本稿では,プライバシ保護深層学習のための学習可能な画像暗号化手法に対する,新たな生成モデルに基づく攻撃を提案する。
我々は、StyleGANベースモデルと潜伏拡散ベースモデルという、最先端の2つの生成モデルを使用している。
その結果,提案手法により再構成された画像は,通常の画像と知覚的に類似していることがわかった。
論文 参考訳(メタデータ) (2023-03-09T05:00:17Z) - StyleGAN Encoder-Based Attack for Block Scrambled Face Images [14.505867475659276]
本稿では,スクランブルされた顔画像,特に Encryption-then-Compression (EtC) 適用画像のブロック手法を提案する。
暗号化された画像から同一の画像を復元する代わりに、暗号化された画像から識別可能な情報を明らかにするスタイルの復元に重点を置いている。
現状の攻撃方法はEtC画像から知覚情報を復元することはできないが,本手法では,髪の色,肌の色,眼鏡,性別などの個人識別情報を開示する。
論文 参考訳(メタデータ) (2022-09-16T14:12:39Z) - Privacy Safe Representation Learning via Frequency Filtering Encoder [7.792424517008007]
Adversarial Representation Learning (ARL) は、クライアント側で実行し、画像を難読化するエンコーダを訓練する一般的な手法である。
難読化イメージを安全に送信し、プライバシの懸念なくサーバ上のタスクに使用することができると仮定する。
我々は低域フィルタリングにより拡張された新しいARL手法を導入し、周波数領域で符号化される情報量を制限する。
論文 参考訳(メタデータ) (2022-08-04T06:16:13Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。