論文の概要: InstaHide's Sample Complexity When Mixing Two Private Images
- arxiv url: http://arxiv.org/abs/2011.11877v2
- Date: Tue, 6 Feb 2024 03:14:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 21:53:02.246014
- Title: InstaHide's Sample Complexity When Mixing Two Private Images
- Title(参考訳): InstaHideの2つのプライベート画像の混合におけるサンプル複雑さ
- Authors: Baihe Huang, Zhao Song, Runzhou Tao, Junze Yin, Ruizhe Zhang, Danyang
Zhuo
- Abstract要約: InstaHideは、テスト精度に小さな影響しか与えずに、データのプライバシのトレーニングを保護するためのスキームである。
InstaHideに対する最近の攻撃について検討し、これらの攻撃を理解し解析するための統合されたフレームワークを提案する。
以上の結果から,InstaHideは情報理論上は安全ではないが,最悪の場合,計算上は安全であることがわかった。
- 参考スコア(独自算出の注目度): 14.861717977097417
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training neural networks usually require large numbers of sensitive training
data, and how to protect the privacy of training data has thus become a
critical topic in deep learning research. InstaHide is a state-of-the-art
scheme to protect training data privacy with only minor effects on test
accuracy, and its security has become a salient question. In this paper, we
systematically study recent attacks on InstaHide and present a unified
framework to understand and analyze these attacks. We find that existing
attacks either do not have a provable guarantee or can only recover a single
private image. On the current InstaHide challenge setup, where each InstaHide
image is a mixture of two private images, we present a new algorithm to recover
all the private images with a provable guarantee and optimal sample complexity.
In addition, we also provide a computational hardness result on retrieving all
InstaHide images. Our results demonstrate that InstaHide is not
information-theoretically secure but computationally secure in the worst case,
even when mixing two private images.
- Abstract(参考訳): ニューラルネットワークのトレーニングは通常、大量の機密データを必要とし、トレーニングデータのプライバシを保護する方法が、ディープラーニング研究において重要なトピックになっている。
InstaHideは、テスト精度に小さな影響しか与えず、トレーニングデータのプライバシを保護するための最先端のスキームだ。
本稿では,instahideに対する最近の攻撃を体系的に研究し,これらの攻撃を理解し分析するための統一フレームワークを提案する。
既存の攻撃は証明可能な保証を持たないか、1つのプライベートイメージのみを復元できる。
それぞれのInstaHideイメージが2つのプライベートイメージの混合である現在のInstaHideチャレンジ設定では、証明可能な保証と最適なサンプル複雑さですべてのプライベートイメージを復元する新しいアルゴリズムを提案する。
さらに,すべてのinstahide画像の検索における計算困難性も提供する。
以上の結果から,InstaHideは2枚のプライベートイメージを混合しても,情報理論上は安全ではないが,最悪の場合,計算上は安全であることがわかった。
関連論文リスト
- Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - PRO-Face S: Privacy-preserving Reversible Obfuscation of Face Images via
Secure Flow [69.78820726573935]
保護フローベースモデルを用いて,プライバシ保護による顔画像の可逆難読化(Reversible Obfuscation of Face image)を略してpro-Face Sと命名する。
本フレームワークでは、Invertible Neural Network(INN)を使用して、入力画像と、その事前難読化されたフォームとを処理し、事前難読化された画像と視覚的に近似したプライバシー保護された画像を生成する。
論文 参考訳(メタデータ) (2023-07-18T10:55:54Z) - Vision Through the Veil: Differential Privacy in Federated Learning for
Medical Image Classification [15.382184404673389]
医療におけるディープラーニングアプリケーションの普及は、さまざまな機関にデータ収集を求める。
プライバシー保護メカニズムは、データが自然に敏感である医療画像解析において最重要である。
本研究は,プライバシ保護技術である差分プライバシを,医用画像分類のための統合学習フレームワークに統合することの必要性に対処する。
論文 参考訳(メタデータ) (2023-06-30T16:48:58Z) - Federated Test-Time Adaptive Face Presentation Attack Detection with
Dual-Phase Privacy Preservation [100.69458267888962]
顔提示攻撃検出(fPAD)は、現代の顔認識パイプラインにおいて重要な役割を果たす。
法的およびプライバシー上の問題により、トレーニングデータ(実際の顔画像と偽画像)は、異なるデータソース間で直接共有することはできない。
本稿では,二相プライバシー保護フレームワークを用いたフェデレーションテスト時間適応顔提示検出を提案する。
論文 参考訳(メタデータ) (2021-10-25T02:51:05Z) - A Fusion-Denoising Attack on InstaHide with Data Augmentation [22.841904122807488]
InstaHideは、共同学習においてプライベートトレーニングイメージを保護するメカニズムである。
最近の作品ではCarlii et al。
instahideが生成した暗号化データセットからプライベートイメージを再構築できることを示す。
本稿では,データ拡張が存在する場合でも,instahideの出力からプライベートイメージを復元する攻撃について述べる。
論文 参考訳(メタデータ) (2021-05-17T11:58:16Z) - InstaHide: Instance-hiding Schemes for Private Distributed Learning [45.26955355159282]
InstaHideは、既存の分散ディープラーニングパイプラインにプラグイン可能な、トレーニングイメージの簡単な暗号化である。
InstaHideは、ランダムに選択された多数のイメージを混ぜた“ワンタイムシークレットキー”で、各トレーニングイメージを暗号化する。
論文 参考訳(メタデータ) (2020-10-06T14:43:23Z) - Toward Privacy and Utility Preserving Image Representation [26.768476643200664]
本稿では,プライバシ保護のための画像表現の新規な課題について検討する。
本稿では,AIA(Adversarial Image Anonymizer)と呼ばれる原理的フレームワークを提案する。
AIAはまず、生成モデルを用いて画像表現を作成し、次に、敵対学習を用いて学習した画像表現を拡張して、与えられたタスクのプライバシーと有用性を維持する。
論文 参考訳(メタデータ) (2020-09-30T01:25:00Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。