論文の概要: COVID-19 Imaging Data Privacy by Federated Learning Design: A
Theoretical Framework
- arxiv url: http://arxiv.org/abs/2010.06177v1
- Date: Tue, 13 Oct 2020 04:34:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 23:21:19.514065
- Title: COVID-19 Imaging Data Privacy by Federated Learning Design: A
Theoretical Framework
- Title(参考訳): フェデレーションラーニングデザインによるデータプライバシーの可視化:理論的枠組み
- Authors: Anwaar Ulhaq, Oliver Burmeister
- Abstract要約: 設計による差分プライバシー(dPbD)フレームワークを導入し、フェデレートされた機械学習システムへの組み込みについて議論する。
我々は、コンピュータビジョンとディープラーニングアプローチによる疾患診断のための、COVID-19イメージングデータのプライバシに関する問題シナリオに焦点を当てる。
スケーラブルな微分プライベートなフェデレーション学習設計は、セキュアでプライベートでコラボレーティブな機械学習モデルを構築する上で有望なソリューションである、と私たちは主張する。
- 参考スコア(独自算出の注目度): 0.7614628596146599
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To address COVID-19 healthcare challenges, we need frequent sharing of health
data, knowledge and resources at a global scale. However, in this digital age,
data privacy is a big concern that requires the secure embedding of privacy
assurance into the design of all technological solutions that use health data.
In this paper, we introduce differential privacy by design (dPbD) framework and
discuss its embedding into the federated machine learning system. To limit the
scope of our paper, we focus on the problem scenario of COVID-19 imaging data
privacy for disease diagnosis by computer vision and deep learning approaches.
We discuss the evaluation of the proposed design of federated machine learning
systems and discuss how differential privacy by design (dPbD) framework can
enhance data privacy in federated learning systems with scalability and
robustness. We argue that scalable differentially private federated learning
design is a promising solution for building a secure, private and collaborative
machine learning model such as required to combat COVID19 challenge.
- Abstract(参考訳): 新型コロナウイルス(covid-19)の医療問題に対処するためには、グローバル規模での健康データ、知識、リソースの頻繁な共有が必要です。
しかし、このデジタル時代において、データプライバシは、健康データを使用するすべての技術ソリューションの設計に、プライバシー保証をセキュアに組み込む必要がある大きな懸念である。
本稿では、設計による差分プライバシー(dPbD)フレームワークを導入し、その統合機械学習システムへの埋め込みについて議論する。
論文の範囲を制限するため、コンピュータビジョンとディープラーニングアプローチによる疾患診断のための、COVID-19画像データプライバシの問題シナリオに焦点を当てた。
本稿では,提案するフェデレーション機械学習システムの設計評価について検討し,dpbd( differential privacy by design)フレームワークが拡張性とロバスト性を備えたフェデレーション学習システムにおいて,データプライバシをいかに強化できるかについて議論する。
スケーラブルで微分プライベートなフェデレーション付き学習設計は、COVID19の課題に対処するために必要な、セキュアでプライベートでコラボレーティブな機械学習モデルを構築するための、有望なソリューションである、と私たちは主張する。
関連論文リスト
- Pencil: Private and Extensible Collaborative Learning without the Non-Colluding Assumption [24.339382371386876]
Pencilは、データプライバシ、モデルのプライバシ、拡張性を複数のデータプロバイダに同時に提供する、共同学習のための最初のプライベートトレーニングフレームワークである。
この設計原則を実現し、厳密なセキュリティとプライバシ分析を行うために、新しい暗号プロトコルをいくつか導入する。
Pencilは10260倍のスループットと2桁の通信速度を実現している。
論文 参考訳(メタデータ) (2024-03-17T10:26:41Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - Vision Through the Veil: Differential Privacy in Federated Learning for
Medical Image Classification [15.382184404673389]
医療におけるディープラーニングアプリケーションの普及は、さまざまな機関にデータ収集を求める。
プライバシー保護メカニズムは、データが自然に敏感である医療画像解析において最重要である。
本研究は,プライバシ保護技術である差分プライバシを,医用画像分類のための統合学習フレームワークに統合することの必要性に対処する。
論文 参考訳(メタデータ) (2023-06-30T16:48:58Z) - When Accuracy Meets Privacy: Two-Stage Federated Transfer Learning
Framework in Classification of Medical Images on Limited Data: A COVID-19
Case Study [77.34726150561087]
新型コロナウイルスのパンデミックが急速に広がり、世界の医療資源が不足している。
CNNは医療画像の解析に広く利用され、検証されている。
論文 参考訳(メタデータ) (2022-03-24T02:09:41Z) - FLOP: Federated Learning on Medical Datasets using Partial Networks [84.54663831520853]
新型コロナウイルスの感染拡大で医療資源が不足している。
新型コロナウイルスの診断を緩和するために、さまざまなデータ駆動型ディープラーニングモデルが開発されている。
患者のプライバシー上の懸念から、データそのものはまだ乏しい。
我々は、textbfPartial Networks (FLOP) を用いた、シンプルで効果的な textbfFederated textbfL textbfon Medical データセットを提案する。
論文 参考訳(メタデータ) (2021-02-10T01:56:58Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - Blockchain-Federated-Learning and Deep Learning Models for COVID-19
detection using CT Imaging [8.280858576611587]
新型コロナウイルスの患者を診断する主な問題は、検査キットの不足と信頼性である。
第2の現実の問題は、世界中の病院間でデータを共有することだ。
第3に,ブロックチェーン技術を用いてグローバルモデルを協調的にトレーニングする手法を設計する。
論文 参考訳(メタデータ) (2020-07-10T11:23:14Z) - Federated Learning and Differential Privacy: Software tools analysis,
the Sherpa.ai FL framework and methodological guidelines for preserving data
privacy [8.30788601976591]
本稿では,フェデレートラーニングと差分プライバシの全体観に基づいて構築されたSherpa.aiフェデレーションラーニングフレームワークを提案する。
本稿では,Sherpa.aiフェデレートラーニングフレームワークで方法論ガイドラインに従う方法について,分類と回帰ユースケースを用いて示す。
論文 参考訳(メタデータ) (2020-07-02T06:47:35Z) - Anonymizing Data for Privacy-Preserving Federated Learning [3.3673553810697827]
我々は,フェデレートラーニングの文脈において,プライバシを提供するための最初の構文的アプローチを提案する。
当社のアプローチは,プライバシの保護レベルをサポートしながら,実用性やモデルの性能を最大化することを目的としている。
医療領域における2つの重要な課題について,100万人の患者の実世界電子健康データを用いて包括的実証評価を行った。
論文 参考訳(メタデータ) (2020-02-21T02:30:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。