論文の概要: Towards Privacy-Preserving Medical Imaging: Federated Learning with Differential Privacy and Secure Aggregation Using a Modified ResNet Architecture
- arxiv url: http://arxiv.org/abs/2412.00687v1
- Date: Sun, 01 Dec 2024 05:52:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:46:46.935990
- Title: Towards Privacy-Preserving Medical Imaging: Federated Learning with Differential Privacy and Secure Aggregation Using a Modified ResNet Architecture
- Title(参考訳): プライバシ保存型医用イメージングに向けて: 修正ResNetアーキテクチャを用いた差分プライバシとセキュアアグリゲーションによるフェデレーション学習
- Authors: Mohamad Haj Fares, Ahmed Mohamed Saad Emam Saad,
- Abstract要約: 本研究では,局所的な差分プライバシーとセキュアアグリゲーションを組み合わせたフェデレート学習フレームワークを提案する。
また、差分プライバシーに最適化されたResNetアーキテクチャであるDPResNetを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: With increasing concerns over privacy in healthcare, especially for sensitive medical data, this research introduces a federated learning framework that combines local differential privacy and secure aggregation using Secure Multi-Party Computation for medical image classification. Further, we propose DPResNet, a modified ResNet architecture optimized for differential privacy. Leveraging the BloodMNIST benchmark dataset, we simulate a realistic data-sharing environment across different hospitals, addressing the distinct privacy challenges posed by federated healthcare data. Experimental results indicate that our privacy-preserving federated model achieves accuracy levels close to non-private models, surpassing traditional approaches while maintaining strict data confidentiality. By enhancing the privacy, efficiency, and reliability of healthcare data management, our approach offers substantial benefits to patients, healthcare providers, and the broader healthcare ecosystem.
- Abstract(参考訳): 医療におけるプライバシに関する懸念、特に機密医療データに対する懸念が高まる中、この研究は、局所的な差分プライバシーとセキュアな集約を融合した、医用画像分類のためのセキュア多部計算(Secure Multi-Party Computation)を用いたフェデレーション学習フレームワークを導入する。
さらに,差分プライバシーに最適化されたResNetアーキテクチャであるDPResNetを提案する。
BloodMNISTベンチマークデータセットを活用することで、さまざまな病院にまたがる現実的なデータ共有環境をシミュレートします。
実験結果から,我々のプライバシ保護フェデレーションモデルでは,厳密なデータ機密性を維持しつつ,従来のアプローチを超越して,非プライベートモデルに近い精度レベルを実現していることがわかった。
医療データ管理のプライバシ、効率、信頼性を高めることで、当社のアプローチは、患者、医療提供者、およびより広範な医療エコシステムに大きなメリットをもたらします。
関連論文リスト
- Differentially Private Multi-Site Treatment Effect Estimation [28.13660104055298]
ほとんどの患者データは別々の病院でサイロに残っており、データ駆動型医療AIシステムの設計を妨げている。
医療応用における因果推論の重要な課題である平均治療効果(ATE)を推定することを検討する。
本稿では, ATE推定値とその分散を品質指標として報告する, サイトごとの推定アルゴリズムのクラスを通してこの問題に対処する。
論文 参考訳(メタデータ) (2023-10-10T01:21:01Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Differential Privacy for Adaptive Weight Aggregation in Federated Tumor
Segmentation [0.16746114653388383]
Federated Learning(FL)は、個々のクライアントデータのプライバシを尊重しながら、公平なグローバルモデルを作成することによって、プライバシを保護する分散機械学習アプローチである。
医用画像セグメンテーションにおける差分プライバシー(DP)統合ディープラーニングフレームワークを提案する。
我々は, 類似度重み付け法(SimAgg)を, 脳腫瘍セグメント化のための差分プライベート類似度重み付けアルゴリズムDP-SimAggアルゴリズムに拡張する。
論文 参考訳(メタデータ) (2023-08-01T21:59:22Z) - Blockchain-empowered Federated Learning for Healthcare Metaverses:
User-centric Incentive Mechanism with Optimal Data Freshness [66.3982155172418]
まず、医療メタバースのための分散型フェデレートラーニング(FL)に基づく、ユーザ中心のプライバシ保護フレームワークを設計する。
次に,情報時代(AoI)を有効データ更新度指標として利用し,観測理論(PT)に基づくAoIベースの契約理論モデルを提案し,センシングデータ共有の動機付けを行う。
論文 参考訳(メタデータ) (2023-07-29T12:54:03Z) - Vision Through the Veil: Differential Privacy in Federated Learning for
Medical Image Classification [15.382184404673389]
医療におけるディープラーニングアプリケーションの普及は、さまざまな機関にデータ収集を求める。
プライバシー保護メカニズムは、データが自然に敏感である医療画像解析において最重要である。
本研究は,プライバシ保護技術である差分プライバシを,医用画像分類のための統合学習フレームワークに統合することの必要性に対処する。
論文 参考訳(メタデータ) (2023-06-30T16:48:58Z) - Towards Blockchain-Assisted Privacy-Aware Data Sharing For Edge
Intelligence: A Smart Healthcare Perspective [19.208368632576153]
リンク攻撃はプライバシードメインにおける支配的な攻撃の一種である。
敵は 健康データを偽装するために 毒殺攻撃を仕掛ける 誤診や 身体的損傷までも 引き起こす
個人の健康データを保護するために,ユーザ間の信頼度に基づく個人差分プライバシモデルを提案する。
論文 参考訳(メタデータ) (2023-06-29T02:06:04Z) - Private, fair and accurate: Training large-scale, privacy-preserving AI models in medical imaging [47.99192239793597]
我々は,AIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して精度と公平性に与える影響を評価した。
我々の研究は、実際の臨床データセットの困難な現実的な状況下では、診断深層学習モデルのプライバシー保護トレーニングは、優れた診断精度と公正さで可能であることを示しています。
論文 参考訳(メタデータ) (2023-02-03T09:49:13Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - Anonymizing Data for Privacy-Preserving Federated Learning [3.3673553810697827]
我々は,フェデレートラーニングの文脈において,プライバシを提供するための最初の構文的アプローチを提案する。
当社のアプローチは,プライバシの保護レベルをサポートしながら,実用性やモデルの性能を最大化することを目的としている。
医療領域における2つの重要な課題について,100万人の患者の実世界電子健康データを用いて包括的実証評価を行った。
論文 参考訳(メタデータ) (2020-02-21T02:30:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。