論文の概要: Recoverable Privacy-Preserving Image Classification through Noise-like
Adversarial Examples
- arxiv url: http://arxiv.org/abs/2310.12707v1
- Date: Thu, 19 Oct 2023 13:01:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-20 15:13:25.399421
- Title: Recoverable Privacy-Preserving Image Classification through Noise-like
Adversarial Examples
- Title(参考訳): ノイズライクな逆例によるプライバシー保護画像の分類
- Authors: Jun Liu, Jiantao Zhou, Jinyu Tian, Weiwei Sun
- Abstract要約: 分類などのクラウドベースの画像関連サービスが重要になっている。
本研究では,新しいプライバシー保護画像分類手法を提案する。
暗号化された画像は、秘密鍵を使用して、高い忠実度(保存可能な)で元の形式に復号することができる。
- 参考スコア(独自算出の注目度): 26.026171363346975
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasing prevalence of cloud computing platforms, ensuring data
privacy during the cloud-based image related services such as classification
has become crucial. In this study, we propose a novel privacypreserving image
classification scheme that enables the direct application of classifiers
trained in the plaintext domain to classify encrypted images, without the need
of retraining a dedicated classifier. Moreover, encrypted images can be
decrypted back into their original form with high fidelity (recoverable) using
a secret key. Specifically, our proposed scheme involves utilizing a feature
extractor and an encoder to mask the plaintext image through a newly designed
Noise-like Adversarial Example (NAE). Such an NAE not only introduces a
noise-like visual appearance to the encrypted image but also compels the target
classifier to predict the ciphertext as the same label as the original
plaintext image. At the decoding phase, we adopt a Symmetric Residual Learning
(SRL) framework for restoring the plaintext image with minimal degradation.
Extensive experiments demonstrate that 1) the classification accuracy of the
classifier trained in the plaintext domain remains the same in both the
ciphertext and plaintext domains; 2) the encrypted images can be recovered into
their original form with an average PSNR of up to 51+ dB for the SVHN dataset
and 48+ dB for the VGGFace2 dataset; 3) our system exhibits satisfactory
generalization capability on the encryption, decryption and classification
tasks across datasets that are different from the training one; and 4) a
high-level of security is achieved against three potential threat models. The
code is available at https://github.com/csjunjun/RIC.git.
- Abstract(参考訳): クラウドコンピューティングプラットフォームの普及に伴い、分類などのクラウドベースの画像関連サービスにおけるデータのプライバシ確保が重要になっている。
本研究では,平文領域で訓練された分類器を直接適用して,専用分類器を再訓練することなく,暗号化された画像の分類を可能にする,新たなプライバシー保護画像分類方式を提案する。
さらに、暗号化された画像は、秘密鍵を使用して高い忠実度(回復可能)で元の形式に復号することができる。
具体的には, 特徴抽出器とエンコーダを用いて, 新たに設計したノイズ様逆数例(NAE)を用いて, 平文画像のマスキングを行う。
このようなnaeは、暗号化画像にノイズのような外観を導入するだけでなく、ターゲット分類器に元の平文画像と同じラベルで暗号文を予測するよう強制する。
復号段階では、最小限の劣化で平文画像の復元を行うためのSymmetric Residual Learning (SRL) フレームワークを採用する。
大規模な実験は
1) 平文領域で訓練された分類器の分類精度は,暗号文領域と平文領域の両方で同じである。
2)暗号化された画像は,SVHNデータセットの平均PSNRが51以上のdB,VGGFace2データセットが48以上のdBで元の形式に復元することができる。
3)本システムでは,学習データと異なるデータセット間での暗号化,復号化,分類タスクに十分な一般化能力を示す。
4)3つの潜在的な脅威モデルに対して高いレベルのセキュリティを達成する。
コードはhttps://github.com/csjunjun/RIC.gitで入手できる。
関連論文リスト
- PRO-Face S: Privacy-preserving Reversible Obfuscation of Face Images via
Secure Flow [69.78820726573935]
保護フローベースモデルを用いて,プライバシ保護による顔画像の可逆難読化(Reversible Obfuscation of Face image)を略してpro-Face Sと命名する。
本フレームワークでは、Invertible Neural Network(INN)を使用して、入力画像と、その事前難読化されたフォームとを処理し、事前難読化された画像と視覚的に近似したプライバシー保護された画像を生成する。
論文 参考訳(メタデータ) (2023-07-18T10:55:54Z) - Human-imperceptible, Machine-recognizable Images [76.01951148048603]
より良い開発AIシステムと、センシティブなトレーニングデータから距離を置くことの間の、ソフトウェアエンジニアに関する大きな対立が露呈している。
画像が暗号化され、人間に認識され、機械に認識される」という、効率的なプライバシー保護学習パラダイムを提案する。
提案手法は,機械が認識可能な情報を保存しながら,暗号化された画像が人間に認識されなくなることを保証できることを示す。
論文 参考訳(メタデータ) (2023-06-06T13:41:37Z) - Discriminative Class Tokens for Text-to-Image Diffusion Models [107.98436819341592]
自由形式のテキストの表現可能性を利用した非侵襲的な微調整手法を提案する。
本手法は,従来の微調整法と比較して高速で,クラス内の画像の収集を必要としない。
i)標準拡散モデルよりも正確で高品質な生成画像,(ii)低リソース環境でのトレーニングデータの拡張,および(iii)誘導分類器の訓練に使用されるデータ情報を明らかにする。
論文 参考訳(メタデータ) (2023-03-30T05:25:20Z) - Generative Model-Based Attack on Learnable Image Encryption for
Privacy-Preserving Deep Learning [14.505867475659276]
本稿では,プライバシ保護深層学習のための学習可能な画像暗号化手法に対する,新たな生成モデルに基づく攻撃を提案する。
我々は、StyleGANベースモデルと潜伏拡散ベースモデルという、最先端の2つの生成モデルを使用している。
その結果,提案手法により再構成された画像は,通常の画像と知覚的に類似していることがわかった。
論文 参考訳(メタデータ) (2023-03-09T05:00:17Z) - ConfounderGAN: Protecting Image Data Privacy with Causal Confounder [85.6757153033139]
本稿では,GAN(Generative Adversarial Network)のConfounderGANを提案する。
実験は、3つの自然なオブジェクトデータセットと3つの医療データセットからなる6つの画像分類データセットで実施される。
論文 参考訳(メタデータ) (2022-12-04T08:49:14Z) - Hiding Images in Deep Probabilistic Models [58.23127414572098]
我々は、画像の深い確率モデルに隠蔽するための異なる計算フレームワークについて述べる。
具体的には、DNNを用いて、カバー画像の確率密度をモデル化し、学習した分布の特定の場所に秘密画像を隠す。
我々は,抽出精度とモデルセキュリティの観点から,SinGANアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2022-10-05T13:33:25Z) - EViT: Privacy-Preserving Image Retrieval via Encrypted Vision
Transformer in Cloud Computing [9.41257807502252]
本稿では,暗号化ビジョン変換器(EViT)という新しいパラダイムを提案する。
EViTは、画像のプライバシーを効果的に保護しつつ、大きなマージンによる検索精度において、現在のスキームよりも優れた暗号化と検索性能を実現する。
論文 参考訳(メタデータ) (2022-08-31T07:07:21Z) - Privacy Safe Representation Learning via Frequency Filtering Encoder [7.792424517008007]
Adversarial Representation Learning (ARL) は、クライアント側で実行し、画像を難読化するエンコーダを訓練する一般的な手法である。
難読化イメージを安全に送信し、プライバシの懸念なくサーバ上のタスクに使用することができると仮定する。
我々は低域フィルタリングにより拡張された新しいARL手法を導入し、周波数領域で符号化される情報量を制限する。
論文 参考訳(メタデータ) (2022-08-04T06:16:13Z) - Privacy-Preserving Image Classification Using Isotropic Network [14.505867475659276]
本稿では,暗号化画像と視覚変換器などの等方性ネットワークを用いたプライバシー保護画像分類手法を提案する。
提案手法では,深層ニューラルネットワーク(DNN)に視覚情報のない画像を適用するだけでなく,高い分類精度を維持することができる。
論文 参考訳(メタデータ) (2022-04-16T03:15:54Z) - No Token Left Behind: Explainability-Aided Image Classification and
Generation [79.4957965474334]
ここでは、CLIPが入力のすべての関連する意味的部分に焦点を当てることを保証するために、損失項を追加する新しい説明可能性に基づくアプローチを提案する。
本手法は, 追加訓練や微調整を伴わずに, 認識率の向上を図っている。
論文 参考訳(メタデータ) (2022-04-11T07:16:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。