論文の概要: A Fusion-Denoising Attack on InstaHide with Data Augmentation
- arxiv url: http://arxiv.org/abs/2105.07754v1
- Date: Mon, 17 May 2021 11:58:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 14:24:19.801051
- Title: A Fusion-Denoising Attack on InstaHide with Data Augmentation
- Title(参考訳): データ拡張によるInstaHideの核融合攻撃
- Authors: Xinjian Luo, Xiaokui Xiao, Yuncheng Wu, Juncheng Liu, Beng Chin Ooi
- Abstract要約: InstaHideは、共同学習においてプライベートトレーニングイメージを保護するメカニズムである。
最近の作品ではCarlii et al。
instahideが生成した暗号化データセットからプライベートイメージを再構築できることを示す。
本稿では,データ拡張が存在する場合でも,instahideの出力からプライベートイメージを復元する攻撃について述べる。
- 参考スコア(独自算出の注目度): 22.841904122807488
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: InstaHide is a state-of-the-art mechanism for protecting private training
images in collaborative learning. It works by mixing multiple private images
and modifying them in such a way that their visual features are no longer
distinguishable to the naked eye, without significantly degrading the accuracy
of training. In recent work, however, Carlini et al. show that it is possible
to reconstruct private images from the encrypted dataset generated by
InstaHide, by exploiting the correlations among the encrypted images.
Nevertheless, Carlini et al.'s attack relies on the assumption that each
private image is used without modification when mixing up with other private
images. As a consequence, it could be easily defeated by incorporating data
augmentation into InstaHide. This leads to a natural question: is InstaHide
with data augmentation secure?
This paper provides a negative answer to the above question, by present an
attack for recovering private images from the outputs of InstaHide even when
data augmentation is present. The basic idea of our attack is to use a
comparative network to identify encrypted images that are likely to correspond
to the same private image, and then employ a fusion-denoising network for
restoring the private image from the encrypted ones, taking into account the
effects of data augmentation. Extensive experiments demonstrate the
effectiveness of the proposed attack in comparison to Carlini et al.'s attack.
- Abstract(参考訳): InstaHideは、共同学習においてプライベートトレーニングイメージを保護する最先端のメカニズムである。
複数のプライベートイメージを混ぜ合わせて修正することで、トレーニングの正確さを著しく損なうことなく、彼らの視覚機能はもはや裸眼では区別できないようにします。
しかし、近年の研究ではCarliniらもそうである。
暗号化された画像間の相関を利用して、instahideが生成した暗号化データセットからプライベートイメージを再構築できることを示す。
それにもかかわらず、carliniらはal。
攻撃は、各プライベートイメージが他のプライベートイメージと混在する場合、変更することなく使用されるという仮定に依存する。
結果として、InstaHideにデータ拡張を組み込むことで、簡単に倒すことができる。
InstaHideはデータ拡張でセキュアか?
本稿では,InstaHideの出力からプライベートイメージを復元する攻撃を,データ拡張があっても行うことで,上記の問題に対する否定的な回答を提供する。
この攻撃の基本的な考え方は、同一のプライベート画像に対応する可能性のある暗号化画像の識別に比較ネットワークを使用し、暗号化画像からプライベート画像を復元するためのfusion-denoisingネットワークを使用することである。
大規模な実験では、カルリーニらと比較して提案された攻撃の有効性が示されている。
攻撃だ
関連論文リスト
- Federated Learning Nodes Can Reconstruct Peers' Image Data [27.92271597111756]
Federated Learning(FL)は、複数のノードがローカルデータ上でモデルをトレーニングできるようにする、プライバシ保護機械学習フレームワークである。
以前の研究によると、FLの勾配共有ステップは、正直だが正確な中央サーバーからのデータ再構成攻撃に弱い可能性がある。
正直なノード/クライアントは、集中型システムでピアのイメージデータを再構築する攻撃を起動し、深刻なプライバシーリスクを生じさせることを示す。
論文 参考訳(メタデータ) (2024-10-07T00:18:35Z) - PRO-Face S: Privacy-preserving Reversible Obfuscation of Face Images via
Secure Flow [69.78820726573935]
保護フローベースモデルを用いて,プライバシ保護による顔画像の可逆難読化(Reversible Obfuscation of Face image)を略してpro-Face Sと命名する。
本フレームワークでは、Invertible Neural Network(INN)を使用して、入力画像と、その事前難読化されたフォームとを処理し、事前難読化された画像と視覚的に近似したプライバシー保護された画像を生成する。
論文 参考訳(メタデータ) (2023-07-18T10:55:54Z) - Human-imperceptible, Machine-recognizable Images [76.01951148048603]
より良い開発AIシステムと、センシティブなトレーニングデータから距離を置くことの間の、ソフトウェアエンジニアに関する大きな対立が露呈している。
画像が暗号化され、人間に認識され、機械に認識される」という、効率的なプライバシー保護学習パラダイムを提案する。
提案手法は,機械が認識可能な情報を保存しながら,暗号化された画像が人間に認識されなくなることを保証できることを示す。
論文 参考訳(メタデータ) (2023-06-06T13:41:37Z) - Generative Model-Based Attack on Learnable Image Encryption for
Privacy-Preserving Deep Learning [14.505867475659276]
本稿では,プライバシ保護深層学習のための学習可能な画像暗号化手法に対する,新たな生成モデルに基づく攻撃を提案する。
我々は、StyleGANベースモデルと潜伏拡散ベースモデルという、最先端の2つの生成モデルを使用している。
その結果,提案手法により再構成された画像は,通常の画像と知覚的に類似していることがわかった。
論文 参考訳(メタデータ) (2023-03-09T05:00:17Z) - ConfounderGAN: Protecting Image Data Privacy with Causal Confounder [85.6757153033139]
本稿では,GAN(Generative Adversarial Network)のConfounderGANを提案する。
実験は、3つの自然なオブジェクトデータセットと3つの医療データセットからなる6つの画像分類データセットで実施される。
論文 参考訳(メタデータ) (2022-12-04T08:49:14Z) - Syfer: Neural Obfuscation for Private Data Release [58.490998583666276]
我々は、再識別攻撃から保護するための神経難読化法であるSyferを開発した。
Syferはトレーニングされたレイヤをランダムニューラルネットワークで構成し、元のデータをエンコードする。
エンコードされたデータから診断を予測する能力を維持している。
論文 参考訳(メタデータ) (2022-01-28T20:32:04Z) - InstaHide's Sample Complexity When Mixing Two Private Images [14.861717977097417]
InstaHideは、テスト精度に小さな影響しか与えずに、データのプライバシのトレーニングを保護するためのスキームである。
InstaHideに対する最近の攻撃について検討し、これらの攻撃を理解し解析するための統合されたフレームワークを提案する。
以上の結果から,InstaHideは情報理論上は安全ではないが,最悪の場合,計算上は安全であることがわかった。
論文 参考訳(メタデータ) (2020-11-24T03:41:03Z) - InstaHide: Instance-hiding Schemes for Private Distributed Learning [45.26955355159282]
InstaHideは、既存の分散ディープラーニングパイプラインにプラグイン可能な、トレーニングイメージの簡単な暗号化である。
InstaHideは、ランダムに選択された多数のイメージを混ぜた“ワンタイムシークレットキー”で、各トレーニングイメージを暗号化する。
論文 参考訳(メタデータ) (2020-10-06T14:43:23Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。