論文の概要: InstaHide: Instance-hiding Schemes for Private Distributed Learning
- arxiv url: http://arxiv.org/abs/2010.02772v2
- Date: Wed, 24 Feb 2021 18:54:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 06:29:35.395683
- Title: InstaHide: Instance-hiding Schemes for Private Distributed Learning
- Title(参考訳): InstaHide: プライベート分散学習のためのインスタンス隠蔽スキーム
- Authors: Yangsibo Huang, Zhao Song, Kai Li, Sanjeev Arora
- Abstract要約: InstaHideは、既存の分散ディープラーニングパイプラインにプラグイン可能な、トレーニングイメージの簡単な暗号化である。
InstaHideは、ランダムに選択された多数のイメージを混ぜた“ワンタイムシークレットキー”で、各トレーニングイメージを暗号化する。
- 参考スコア(独自算出の注目度): 45.26955355159282
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: How can multiple distributed entities collaboratively train a shared deep net
on their private data while preserving privacy? This paper introduces
InstaHide, a simple encryption of training images, which can be plugged into
existing distributed deep learning pipelines. The encryption is efficient and
applying it during training has minor effect on test accuracy.
InstaHide encrypts each training image with a "one-time secret key" which
consists of mixing a number of randomly chosen images and applying a random
pixel-wise mask. Other contributions of this paper include: (a) Using a large
public dataset (e.g. ImageNet) for mixing during its encryption, which improves
security. (b) Experimental results to show effectiveness in preserving privacy
against known attacks with only minor effects on accuracy. (c) Theoretical
analysis showing that successfully attacking privacy requires attackers to
solve a difficult computational problem. (d) Demonstrating that use of the
pixel-wise mask is important for security, since Mixup alone is shown to be
insecure to some some efficient attacks. (e) Release of a challenge dataset
https://github.com/Hazelsuko07/InstaHide_Challenge
Our code is available at https://github.com/Hazelsuko07/InstaHide
- Abstract(参考訳): プライバシを保護しながら、複数の分散エンティティがプライベートデータ上で共有ディープネットを協調的にトレーニングする方法?
本稿では、既存の分散ディープラーニングパイプラインにプラグイン可能な、トレーニングイメージの簡単な暗号化であるInstaHideを紹介する。
暗号化は効率的であり、トレーニング中にそれを適用すると、テスト精度に小さな影響がある。
InstaHideは、ランダムに選択された多数の画像とランダムなピクセルワイズマスクを混合した「ワンタイムシークレットキー」で、各トレーニングイメージを暗号化する。
本論文の他の貢献は以下のとおりである。
(a) 大きな公開データセット(ImageNetなど)を使用して暗号化中にミキシングすることで、セキュリティが向上する。
b) 精度に小さな影響しか与えない既知の攻撃に対するプライバシ保護の有効性を示す実験結果。
(c)プライバシ攻撃に成功するためには,攻撃者が難しい計算問題を解く必要がある。
(d)Mixup単独は、いくつかの効率的な攻撃に対して安全でないことが示されるため、セキュリティ上、ピクセルワイドマスクの使用が重要であることを示す。
https://github.com/Hazelsuko07/InstaHide_Challenge 我々のコードはhttps://github.com/Hazelsuko07/InstaHideで入手できる。
関連論文リスト
- I can't see it but I can Fine-tune it: On Encrypted Fine-tuning of
Transformers using Fully Homomorphic Encryption [5.12893315783096]
BlindTunerは、画像分類のための同型暗号化データのみを対象としたトランスフォーマートレーニングを可能にする、プライバシー保護のための微調整システムである。
以上の結果から,従来よりも1.5倍から600倍の速度向上が見られた。
論文 参考訳(メタデータ) (2024-02-14T10:15:43Z) - PPIDSG: A Privacy-Preserving Image Distribution Sharing Scheme with GAN
in Federated Learning [2.0507547735926424]
分散学習(FL)は、分散クライアントでのプライバシー保護のための協調トレーニングを可能にするため、注目を集めている。
最近の研究によると、個人データを敵に公開するリスクは依然として残っている。
GAN(PPIDSG)を用いたプライバシー保護型画像配信方式を提案する。
論文 参考訳(メタデータ) (2023-12-16T08:32:29Z) - Human-imperceptible, Machine-recognizable Images [76.01951148048603]
より良い開発AIシステムと、センシティブなトレーニングデータから距離を置くことの間の、ソフトウェアエンジニアに関する大きな対立が露呈している。
画像が暗号化され、人間に認識され、機械に認識される」という、効率的なプライバシー保護学習パラダイムを提案する。
提案手法は,機械が認識可能な情報を保存しながら,暗号化された画像が人間に認識されなくなることを保証できることを示す。
論文 参考訳(メタデータ) (2023-06-06T13:41:37Z) - Attribute-Guided Encryption with Facial Texture Masking [64.77548539959501]
本稿では,顔認識システムからユーザを保護するために,顔テクスチャマスキングを用いた属性ガイド暗号化を提案する。
提案手法は,最先端の手法よりも自然な画像を生成する。
論文 参考訳(メタデータ) (2023-05-22T23:50:43Z) - When approximate design for fast homomorphic computation provides
differential privacy guarantees [0.08399688944263842]
差分プライバシー(DP)と暗号プリミティブは、プライバシー攻撃に対する一般的な対策である。
本稿では,argmax演算子に対する確率近似アルゴリズム ShiELD を設計する。
たとえShielDが他のアプリケーションを持つことができたとしても、私たちは1つの設定に集中し、SPEEDコラボレーティブトレーニングフレームワークにシームレスに統合します。
論文 参考訳(メタデータ) (2023-04-06T09:38:01Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - Syfer: Neural Obfuscation for Private Data Release [58.490998583666276]
我々は、再識別攻撃から保護するための神経難読化法であるSyferを開発した。
Syferはトレーニングされたレイヤをランダムニューラルネットワークで構成し、元のデータをエンコードする。
エンコードされたデータから診断を予測する能力を維持している。
論文 参考訳(メタデータ) (2022-01-28T20:32:04Z) - A Fusion-Denoising Attack on InstaHide with Data Augmentation [22.841904122807488]
InstaHideは、共同学習においてプライベートトレーニングイメージを保護するメカニズムである。
最近の作品ではCarlii et al。
instahideが生成した暗号化データセットからプライベートイメージを再構築できることを示す。
本稿では,データ拡張が存在する場合でも,instahideの出力からプライベートイメージを復元する攻撃について述べる。
論文 参考訳(メタデータ) (2021-05-17T11:58:16Z) - InstaHide's Sample Complexity When Mixing Two Private Images [14.861717977097417]
InstaHideは、テスト精度に小さな影響しか与えずに、データのプライバシのトレーニングを保護するためのスキームである。
InstaHideに対する最近の攻撃について検討し、これらの攻撃を理解し解析するための統合されたフレームワークを提案する。
以上の結果から,InstaHideは情報理論上は安全ではないが,最悪の場合,計算上は安全であることがわかった。
論文 参考訳(メタデータ) (2020-11-24T03:41:03Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。