論文の概要: InstaHide's Sample Complexity When Mixing Two Private Images
- arxiv url: http://arxiv.org/abs/2011.11877v1
- Date: Tue, 24 Nov 2020 03:41:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 13:03:15.537516
- Title: InstaHide's Sample Complexity When Mixing Two Private Images
- Title(参考訳): InstaHideの2つのプライベート画像の混合におけるサンプル複雑さ
- Authors: Baihe Huang, Zhao Song, Runzhou Tao, Ruizhe Zhang, Danyang Zhuo
- Abstract要約: InstaHide チャレンジ [Huang, Song, Li, Arora'20] にインスパイアされた[Chen, Song, Zhuo'20] は,最近ガウス画像分布下での InstaHide 攻撃問題の数学的定式化を行っている。
これは、$O(n_mathsfprivk_mathsfpriv - 2/(k_mathsfpriv + 1))$サンプルを使用して、$n_mathsfprivO(k_mathsfpriv) + Mathrmpoly(n_)で1つのプライベートイメージを復元するのに十分であることを示している。
- 参考スコア(独自算出の注目度): 16.79746129283604
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Inspired by InstaHide challenge [Huang, Song, Li and Arora'20], [Chen, Song
and Zhuo'20] recently provides one mathematical formulation of InstaHide attack
problem under Gaussian images distribution. They show that it suffices to use
$O(n_{\mathsf{priv}}^{k_{\mathsf{priv}} - 2/(k_{\mathsf{priv}} + 1)})$ samples
to recover one private image in $n_{\mathsf{priv}}^{O(k_{\mathsf{priv}})} +
\mathrm{poly}(n_{\mathsf{pub}})$ time for any integer $k_{\mathsf{priv}}$,
where $n_{\mathsf{priv}}$ and $n_{\mathsf{pub}}$ denote the number of images
used in the private and the public dataset to generate a mixed image sample.
Under the current setup for the InstaHide challenge of mixing two private
images ($k_{\mathsf{priv}} = 2$), this means $n_{\mathsf{priv}}^{4/3}$ samples
are sufficient to recover a private image. In this work, we show that
$n_{\mathsf{priv}} \log ( n_{\mathsf{priv}} )$ samples are sufficient
(information-theoretically) for recovering all the private images.
- Abstract(参考訳): instahide challenge [huang, song, li and arora'20], [chen, song and zhuo'20] にインスタヒド攻撃問題の数学的定式化がガウス像の分布の下で行われている。
彼らは、$o(n_{\mathsf{priv}}^{k_{\mathsf{priv}} - 2/(k_{\mathsf{priv}} + 1)})$ サンプルを使用して、$n_{\mathsf{priv}}^{o(k_{\mathsf{priv}})} + \mathrm{poly}(n_{\mathsf{pub}})$ 任意の整数 $k_{\mathsf{priv}}$, ここで $n_{\mathsf{priv}}$ と $n_{\mathsf{pub}}$ は、プライベートデータセットとパブリックデータセットで混合画像を生成するために使用される画像の数を表す。
2つのプライベートイメージ(k_{\mathsf{priv}} = 2$)を混合するというinstahideチャレンジの現在のセットアップの下では、サンプルの$n_{\mathsf{priv}}^{4/3}$はプライベートイメージを復元するのに十分である。
本研究では,すべてのプライベート画像の復元に$n_{\mathsf{priv}} \log (n_{\mathsf{priv}} )$サンプルが十分であることを示す。
関連論文リスト
- Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - PRO-Face S: Privacy-preserving Reversible Obfuscation of Face Images via
Secure Flow [69.78820726573935]
保護フローベースモデルを用いて,プライバシ保護による顔画像の可逆難読化(Reversible Obfuscation of Face image)を略してpro-Face Sと命名する。
本フレームワークでは、Invertible Neural Network(INN)を使用して、入力画像と、その事前難読化されたフォームとを処理し、事前難読化された画像と視覚的に近似したプライバシー保護された画像を生成する。
論文 参考訳(メタデータ) (2023-07-18T10:55:54Z) - Vision Through the Veil: Differential Privacy in Federated Learning for
Medical Image Classification [15.382184404673389]
医療におけるディープラーニングアプリケーションの普及は、さまざまな機関にデータ収集を求める。
プライバシー保護メカニズムは、データが自然に敏感である医療画像解析において最重要である。
本研究は,プライバシ保護技術である差分プライバシを,医用画像分類のための統合学習フレームワークに統合することの必要性に対処する。
論文 参考訳(メタデータ) (2023-06-30T16:48:58Z) - Federated Test-Time Adaptive Face Presentation Attack Detection with
Dual-Phase Privacy Preservation [100.69458267888962]
顔提示攻撃検出(fPAD)は、現代の顔認識パイプラインにおいて重要な役割を果たす。
法的およびプライバシー上の問題により、トレーニングデータ(実際の顔画像と偽画像)は、異なるデータソース間で直接共有することはできない。
本稿では,二相プライバシー保護フレームワークを用いたフェデレーションテスト時間適応顔提示検出を提案する。
論文 参考訳(メタデータ) (2021-10-25T02:51:05Z) - A Fusion-Denoising Attack on InstaHide with Data Augmentation [22.841904122807488]
InstaHideは、共同学習においてプライベートトレーニングイメージを保護するメカニズムである。
最近の作品ではCarlii et al。
instahideが生成した暗号化データセットからプライベートイメージを再構築できることを示す。
本稿では,データ拡張が存在する場合でも,instahideの出力からプライベートイメージを復元する攻撃について述べる。
論文 参考訳(メタデータ) (2021-05-17T11:58:16Z) - InstaHide: Instance-hiding Schemes for Private Distributed Learning [45.26955355159282]
InstaHideは、既存の分散ディープラーニングパイプラインにプラグイン可能な、トレーニングイメージの簡単な暗号化である。
InstaHideは、ランダムに選択された多数のイメージを混ぜた“ワンタイムシークレットキー”で、各トレーニングイメージを暗号化する。
論文 参考訳(メタデータ) (2020-10-06T14:43:23Z) - Toward Privacy and Utility Preserving Image Representation [26.768476643200664]
本稿では,プライバシ保護のための画像表現の新規な課題について検討する。
本稿では,AIA(Adversarial Image Anonymizer)と呼ばれる原理的フレームワークを提案する。
AIAはまず、生成モデルを用いて画像表現を作成し、次に、敵対学習を用いて学習した画像表現を拡張して、与えられたタスクのプライバシーと有用性を維持する。
論文 参考訳(メタデータ) (2020-09-30T01:25:00Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。