論文の概要: NeuraCrypt: Hiding Private Health Data via Random Neural Networks for
Public Training
- arxiv url: http://arxiv.org/abs/2106.02484v1
- Date: Fri, 4 Jun 2021 13:42:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-07 21:40:24.378300
- Title: NeuraCrypt: Hiding Private Health Data via Random Neural Networks for
Public Training
- Title(参考訳): neuracrypt: パブリックトレーニングのためのランダムニューラルネットワークによるプライベートヘルスデータの隠蔽
- Authors: Adam Yala, Homa Esfahanizadeh, Rafael G. L. D' Oliveira, Ken R. Duffy,
Manya Ghobadi, Tommi S. Jaakkola, Vinod Vaikuntanathan, Regina Barzilay,
Muriel Medard
- Abstract要約: 我々は,ランダムな深層ニューラルネットワークに基づくプライベート符号化方式であるNeuraCryptを提案する。
NeuraCryptは、データ所有者のみが知っているランダムに構築されたニューラルネットワークを使用して、生の患者データをエンコードする。
我々は,NeuraCryptが,様々なX線タスクの非プライベートベースラインに対して,競合精度を達成することを示す。
- 参考スコア(独自算出の注目度): 64.54200987493573
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Balancing the needs of data privacy and predictive utility is a central
challenge for machine learning in healthcare. In particular, privacy concerns
have led to a dearth of public datasets, complicated the construction of
multi-hospital cohorts and limited the utilization of external machine learning
resources. To remedy this, new methods are required to enable data owners, such
as hospitals, to share their datasets publicly, while preserving both patient
privacy and modeling utility. We propose NeuraCrypt, a private encoding scheme
based on random deep neural networks. NeuraCrypt encodes raw patient data using
a randomly constructed neural network known only to the data-owner, and
publishes both the encoded data and associated labels publicly. From a
theoretical perspective, we demonstrate that sampling from a sufficiently rich
family of encoding functions offers a well-defined and meaningful notion of
privacy against a computationally unbounded adversary with full knowledge of
the underlying data-distribution. We propose to approximate this family of
encoding functions through random deep neural networks. Empirically, we
demonstrate the robustness of our encoding to a suite of adversarial attacks
and show that NeuraCrypt achieves competitive accuracy to non-private baselines
on a variety of x-ray tasks. Moreover, we demonstrate that multiple hospitals,
using independent private encoders, can collaborate to train improved x-ray
models. Finally, we release a challenge dataset to encourage the development of
new attacks on NeuraCrypt.
- Abstract(参考訳): データプライバシと予測ユーティリティのバランスをとることは、医療におけるマシンラーニングの中心的な課題である。
特に、プライバシー上の懸念から、公開データセットの不足、マルチホスピタルコホートの構築の複雑化、外部機械学習リソースの利用の制限などが発生している。
これに対処するために、患者プライバシーとモデリングユーティリティの両方を維持しつつ、病院などのデータ所有者がデータセットを公に共有できるようにする新しい方法が必要となる。
ランダム深層ニューラルネットワークに基づくプライベート符号化方式であるNeuraCryptを提案する。
NeuraCryptは、データ所有者のみが知っているランダムに構築されたニューラルネットワークを使用して、生の患者データをエンコードし、エンコードされたデータと関連するラベルの両方を公開する。
理論的見地から、十分にリッチな符号化関数の族からのサンプリングは、基礎となるデータ分布の完全な知識を持つ計算不能な敵に対して、明確に定義され有意義なプライバシーの概念を提供することを示した。
本稿では,ランダム深層ニューラルネットワークを用いて,この符号化関数群を近似する。
実験により,NuraCryptは,様々なX線タスクにおいて,非プライベートなベースラインに対して,競合精度を達成できることを実証した。
さらに,独立したプライベートエンコーダを用いた複数の病院が協力して改良x線モデルを訓練できることを実証した。
最後に,NeuraCryptに対する新たな攻撃の促進を目的とした課題データセットをリリースする。
関連論文リスト
- A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - PEOPL: Characterizing Privately Encoded Open Datasets with Public Labels [59.66777287810985]
プライバシとユーティリティのための情報理論スコアを導入し、不誠実なユーザの平均パフォーマンスを定量化する。
次に、ランダムなディープニューラルネットワークの使用を動機付ける符号化スキームのファミリーを構築する際のプリミティブを理論的に特徴づける。
論文 参考訳(メタデータ) (2023-03-31T18:03:53Z) - Secure & Private Federated Neuroimaging [17.946206585229675]
Federated Learningは、データを共有することなく、複数のデータソース上でニューラルネットワークモデルの分散トレーニングを可能にする。
各サイトは、ニューラルネットワークをプライベートデータ上でしばらくトレーニングし、ニューラルネットワークパラメータをフェデレーションコントローラと共有する。
当社のフェデレートラーニングアーキテクチャであるMetisFLは、強力なセキュリティとプライバシを提供します。
論文 参考訳(メタデータ) (2022-05-11T03:36:04Z) - Syfer: Neural Obfuscation for Private Data Release [58.490998583666276]
我々は、再識別攻撃から保護するための神経難読化法であるSyferを開発した。
Syferはトレーニングされたレイヤをランダムニューラルネットワークで構成し、元のデータをエンコードする。
エンコードされたデータから診断を予測する能力を維持している。
論文 参考訳(メタデータ) (2022-01-28T20:32:04Z) - SoK: Privacy-preserving Deep Learning with Homomorphic Encryption [2.9069679115858755]
ホモモルフィック暗号化(HE)は、その内容を明らかにすることなく暗号化データ上で実行される。
プライバシ保護のために、ニューラルネットワークとHEを組み合わせたアプローチを詳細に検討します。
計算オーバーヘッドやユーザビリティ,暗号化スキームによる制限といった,HEベースのプライバシ保護の深層学習には,数多くの課題がある。
論文 参考訳(メタデータ) (2021-12-23T22:03:27Z) - NeuralDP Differentially private neural networks by design [61.675604648670095]
ニューラルネットワーク内のいくつかの層の活性化を民営化する手法であるNeuralDPを提案する。
本研究では,DP-SGDと比較して,プライバシーとユーティリティのトレードオフを大幅に改善した2つのデータセットを実験的に検証した。
論文 参考訳(メタデータ) (2021-07-30T12:40:19Z) - POSEIDON: Privacy-Preserving Federated Neural Network Learning [8.103262600715864]
POSEIDONは、プライバシ保護ニューラルネットワークトレーニングの世界で、最初のタイプのものだ。
トレーニングデータ、モデル、評価データの機密性を維持するために、マルチパーティの格子ベースの暗号を用いる。
MNISTデータセットに784の特徴と60Kのサンプルを2時間以内で10のパーティに分散させた3層ニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-09-01T11:06:31Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。