論文の概要: Syfer: Neural Obfuscation for Private Data Release
- arxiv url: http://arxiv.org/abs/2201.12406v1
- Date: Fri, 28 Jan 2022 20:32:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-05 07:19:26.986569
- Title: Syfer: Neural Obfuscation for Private Data Release
- Title(参考訳): Syfer: プライベートデータリリースのための神経障害
- Authors: Adam Yala, Victor Quach, Homa Esfahanizadeh, Rafael G. L. D'Oliveira,
Ken R. Duffy, Muriel M\'edard, Tommi S. Jaakkola, Regina Barzilay
- Abstract要約: 我々は、再識別攻撃から保護するための神経難読化法であるSyferを開発した。
Syferはトレーニングされたレイヤをランダムニューラルネットワークで構成し、元のデータをエンコードする。
エンコードされたデータから診断を予測する能力を維持している。
- 参考スコア(独自算出の注目度): 58.490998583666276
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Balancing privacy and predictive utility remains a central challenge for
machine learning in healthcare. In this paper, we develop Syfer, a neural
obfuscation method to protect against re-identification attacks. Syfer composes
trained layers with random neural networks to encode the original data (e.g.
X-rays) while maintaining the ability to predict diagnoses from the encoded
data. The randomness in the encoder acts as the private key for the data owner.
We quantify privacy as the number of attacker guesses required to re-identify a
single image (guesswork). We propose a contrastive learning algorithm to
estimate guesswork. We show empirically that differentially private methods,
such as DP-Image, obtain privacy at a significant loss of utility. In contrast,
Syfer achieves strong privacy while preserving utility. For example, X-ray
classifiers built with DP-image, Syfer, and original data achieve average AUCs
of 0.53, 0.78, and 0.86, respectively.
- Abstract(参考訳): プライバシと予測ユーティリティのバランスは、医療におけるマシンラーニングの中心的な課題である。
本稿では,再同定攻撃から保護する神経難読化法syferを開発した。
syferはトレーニングされた層をランダムなニューラルネットワークで構成し、元のデータ(例えばx線)をエンコードすると同時に、エンコードされたデータから診断を予測する能力を維持する。
エンコーダのランダム性は、データ所有者のプライベートキーとして振る舞う。
1つの画像(ゲスワーク)を再特定するのに必要な攻撃者の数として、プライバシーを定量化する。
推測作業を推定するためのコントラスト学習アルゴリズムを提案する。
DP画像などの差分的プライベートな手法が,実用性を著しく損なうことなく,プライバシを獲得できることを実証的に示す。
対照的に、Syferはユーティリティを保ちながら強力なプライバシーを実現している。
例えば、DP-image、Syfer、およびオリジナルのデータで構築されたX線分類器は平均AUCを0.53、0.78、0.86とする。
関連論文リスト
- A Stochastic Optimization Framework for Private and Fair Learning From Decentralized Data [14.748203847227542]
プライベート・フェア・フェデレーション・ラーニング(FL)のための新しいアルゴリズムを開発した。
我々のアルゴリズムは、サイロ間レコードレベル差分プライバシー(ISRL-DP)を満たす。
実験では、さまざまなプライバシレベルにわたるアルゴリズムのトレードオフとして、最先端の公正性・正確性フレームワークが実証されている。
論文 参考訳(メタデータ) (2024-11-12T15:51:35Z) - Analyzing Privacy Leakage in Machine Learning via Multiple Hypothesis
Testing: A Lesson From Fano [83.5933307263932]
本研究では,離散データに対するデータ再構成攻撃について検討し,仮説テストの枠組みの下で解析する。
基礎となるプライベートデータが$M$のセットから値を取ると、ターゲットのプライバシパラメータ$epsilon$が$O(log M)$になる。
論文 参考訳(メタデータ) (2022-10-24T23:50:12Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - Hiding Images in Deep Probabilistic Models [58.23127414572098]
我々は、画像の深い確率モデルに隠蔽するための異なる計算フレームワークについて述べる。
具体的には、DNNを用いて、カバー画像の確率密度をモデル化し、学習した分布の特定の場所に秘密画像を隠す。
我々は,抽出精度とモデルセキュリティの観点から,SinGANアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2022-10-05T13:33:25Z) - Fine-Tuning with Differential Privacy Necessitates an Additional
Hyperparameter Search [38.83524780461911]
トレーニング済みニューラルネットワークで微調整されたレイヤを慎重に選択することで、プライバシと正確性の間に新たな最先端のトレードオフを確立することができることを示す。
ImageNetで事前トレーニングされたモデルに対して、CIFAR-100上で$(varepsilon, delta)= (2, 10-5)$に対して77.9%の精度を達成する。
論文 参考訳(メタデータ) (2022-10-05T11:32:49Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Unintended memorisation of unique features in neural networks [15.174895411434026]
トレーニングデータに1回だけ発生するユニークな特徴は、識別可能な多層パーセプトロンと畳み込みニューラルネットワークによって記憶される。
我々は,モデル出力分布のKL分散度を比較することで,モデルの特異な特徴に対する感度を推定するスコアを開発する。
オーバーフィッティングを防ぐための典型的な戦略は、ユニークな特徴記憶を防ぐものではない。
論文 参考訳(メタデータ) (2022-05-20T10:48:18Z) - Measuring Unintended Memorisation of Unique Private Features in Neural
Networks [15.174895411434026]
トレーニングデータに1回だけ発生しても、ニューラルネットワークは意図せずユニークな特徴を記憶している。
ユニークな特徴の例として、トレーニング画像に誤って現れる人物の名前がある。
論文 参考訳(メタデータ) (2022-02-16T14:39:05Z) - NeuraCrypt: Hiding Private Health Data via Random Neural Networks for
Public Training [64.54200987493573]
我々は,ランダムな深層ニューラルネットワークに基づくプライベート符号化方式であるNeuraCryptを提案する。
NeuraCryptは、データ所有者のみが知っているランダムに構築されたニューラルネットワークを使用して、生の患者データをエンコードする。
我々は,NeuraCryptが,様々なX線タスクの非プライベートベースラインに対して,競合精度を達成することを示す。
論文 参考訳(メタデータ) (2021-06-04T13:42:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。