論文の概要: Enhancing Privacy in Federated Learning: Secure Aggregation for Real-World Healthcare Applications
- arxiv url: http://arxiv.org/abs/2409.00974v1
- Date: Mon, 2 Sep 2024 06:43:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 08:08:59.564468
- Title: Enhancing Privacy in Federated Learning: Secure Aggregation for Real-World Healthcare Applications
- Title(参考訳): フェデレーションラーニングにおけるプライバシの強化:現実世界の医療アプリケーションのためのセキュアなアグリゲーション
- Authors: Riccardo Taiello, Sergen Cansiz, Marc Vesin, Francesco Cremonesi, Lucia Innocenti, Melek Önen, Marco Lorenzi,
- Abstract要約: 本稿では,オープンソースのFed-BioMedフレームワークにおけるセキュアアグリゲーションの実装について検討する。
我々は2つのSAプロトコル、Joye-Libert (JL) と Low Overhead Masking (LOM) を実装し、比較する。
4つのデータセットの理論的および実験的評価により、SAプロトコルはタスク精度を維持しながら、効果的にプライバシを保護することが示されている。
- 参考スコア(独自算出の注目度): 3.43449190286365
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deploying federated learning (FL) in real-world scenarios, particularly in healthcare, poses challenges in communication and security. In particular, with respect to the federated aggregation procedure, researchers have been focusing on the study of secure aggregation (SA) schemes to provide privacy guarantees over the model's parameters transmitted by the clients. Nevertheless, the practical availability of SA in currently available FL frameworks is currently limited, due to computational and communication bottlenecks. To fill this gap, this study explores the implementation of SA within the open-source Fed-BioMed framework. We implement and compare two SA protocols, Joye-Libert (JL) and Low Overhead Masking (LOM), by providing extensive benchmarks in a panel of healthcare data analysis problems. Our theoretical and experimental evaluations on four datasets demonstrate that SA protocols effectively protect privacy while maintaining task accuracy. Computational overhead during training is less than 1% on a CPU and less than 50% on a GPU for large models, with protection phases taking less than 10 seconds. Incorporating SA into Fed-BioMed impacts task accuracy by no more than 2% compared to non-SA scenarios. Overall this study demonstrates the feasibility of SA in real-world healthcare applications and contributes in reducing the gap towards the adoption of privacy-preserving technologies in sensitive applications.
- Abstract(参考訳): 現実のシナリオ、特にヘルスケアにフェデレートドラーニング(FL)をデプロイすることは、コミュニケーションとセキュリティに課題をもたらす。
特に、フェデレーションアグリゲーション手順に関して、研究者は、クライアントが送信するモデルのパラメータに対するプライバシー保証を提供するセキュアアグリゲーション(SA)スキームの研究に注力してきた。
しかしながら、現在利用可能なFLフレームワークでのSAの実用性は現在、計算と通信のボトルネックのために制限されている。
このギャップを埋めるために、オープンソースのFed-BioMedフレームワークにおけるSAの実装について検討する。
我々は、医療データ分析問題パネルに広範なベンチマークを提供することにより、2つのSAプロトコル、Joye-Libert (JL) と Low Overhead Masking (LOM) を実装し、比較する。
4つのデータセットの理論的および実験的評価により、SAプロトコルはタスク精度を維持しながら、効果的にプライバシを保護することが示されている。
トレーニング中の計算オーバーヘッドは、CPU上で1%未満、大規模モデルのGPUで50%未満であり、保護フェーズは10秒未満である。
Fed-BioMedにSAを組み込むことは、非SAシナリオと比較してタスクの正確性に2%以上影響を与えます。
全体として、本研究では、現実世界の医療アプリケーションにおけるSAの実現可能性を示し、センシティブなアプリケーションにおけるプライバシ保護技術の採用に対するギャップを減らすことに寄与している。
関連論文リスト
- Data Obfuscation through Latent Space Projection (LSP) for Privacy-Preserving AI Governance: Case Studies in Medical Diagnosis and Finance Fraud Detection [0.0]
本稿では、AIガバナンスの強化と、責任あるAIコンプライアンスの確保を目的とした、新しい技術であるLSP(Data Obfuscation through Latent Space Projection)を紹介する。
LSPは機械学習を使用して、機密データを潜在空間に投影し、モデルトレーニングと推論に不可欠な機能を保ちながら効果的に難読化する。
LSPの有効性は、ベンチマークデータセットの実験と、医療がん診断と金融詐欺分析の2つの実世界のケーススタディを通じて検証する。
論文 参考訳(メタデータ) (2024-10-22T22:31:03Z) - Privacy-Preserving SAM Quantization for Efficient Edge Intelligence in Healthcare [9.381558154295012]
Segment Anything Model (SAM) はインテリジェントなイメージセグメンテーションに優れている。
SAMはリソース制限されたエッジデバイスにデプロイする上で大きな課題となる。
本研究では,原データなしで量子化パラメータを学習・校正する DFQ-SAM という,SAM のためのデータフリー量子化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-14T10:43:35Z) - Securing Health Data on the Blockchain: A Differential Privacy and Federated Learning Framework [1.3654846342364306]
この研究は、差分プライバシー(DP)とフェデレートラーニング(FL)を統合し、IoTノードが収集した機密健康データを保護する。
提案フレームワークは、動的パーソナライズと適応型ノイズ分配戦略を利用して、プライバシとデータユーティリティのバランスをとる。
論文 参考訳(メタデータ) (2024-05-19T15:15:18Z) - Practically adaptable CPABE based Health-Records sharing framework [0.0]
CPABEとOAuth2.0をベースとした、効率的なアクセス制御と認可のためのフレームワークを提案し、単一のクライアントアプリケーション間でのEHR共有の実現性を改善した。
提案するフレームワークの実装とその分析比較は,性能とレイテンシの最小化の観点から,その可能性を示唆している。
論文 参考訳(メタデータ) (2024-03-11T00:23:17Z) - FedDBL: Communication and Data Efficient Federated Deep-Broad Learning
for Histopathological Tissue Classification [65.7405397206767]
本稿では,FedDBL(Federated Deep-Broad Learning)を提案する。
FedDBLは1ラウンドの通信と限られたトレーニングサンプルで競合相手をはるかに上回り、マルチラウンドの通信で同等のパフォーマンスを達成している。
異なるクライアント間でのデータやディープモデルを共有しないため、プライバシ問題は十分に解決されており、モデルのセキュリティはモデル反転攻撃のリスクなしに保証される。
論文 参考訳(メタデータ) (2023-02-24T14:27:41Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Dissecting Self-Supervised Learning Methods for Surgical Computer Vision [51.370873913181605]
一般のコンピュータビジョンコミュニティでは,自己監視学習(SSL)手法が普及し始めている。
医学や手術など、より複雑で影響力のある領域におけるSSLメソッドの有効性は、限定的かつ未調査のままである。
外科的文脈理解,位相認識,ツール存在検出の2つの基本的なタスクに対して,これらの手法の性能をColec80データセット上で広範囲に解析する。
論文 参考訳(メタデータ) (2022-07-01T14:17:11Z) - When Accuracy Meets Privacy: Two-Stage Federated Transfer Learning
Framework in Classification of Medical Images on Limited Data: A COVID-19
Case Study [77.34726150561087]
新型コロナウイルスのパンデミックが急速に広がり、世界の医療資源が不足している。
CNNは医療画像の解析に広く利用され、検証されている。
論文 参考訳(メタデータ) (2022-03-24T02:09:41Z) - Adherence Forecasting for Guided Internet-Delivered Cognitive Behavioral
Therapy: A Minimally Data-Sensitive Approach [59.535699822923]
インターネット提供型心理的治療(IDPT)は、メンタルヘルスのアクセシビリティを向上させるための効果的でスケーラブルな経路であると考えられている。
本研究は,最小限の敏感なログイン/ログアウトデータに依存しながら,自動アドバンス予測を行うディープラーニングアプローチを提案する。
提案されたセルフアテンションネットワークは、治療期間の1/3が経過した時点で、平均的バランスの正確さを70%以上達成した。
論文 参考訳(メタデータ) (2022-01-11T13:55:57Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Anonymizing Data for Privacy-Preserving Federated Learning [3.3673553810697827]
我々は,フェデレートラーニングの文脈において,プライバシを提供するための最初の構文的アプローチを提案する。
当社のアプローチは,プライバシの保護レベルをサポートしながら,実用性やモデルの性能を最大化することを目的としている。
医療領域における2つの重要な課題について,100万人の患者の実世界電子健康データを用いて包括的実証評価を行った。
論文 参考訳(メタデータ) (2020-02-21T02:30:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。