論文の概要: Differentially private federated deep learning for multi-site medical
image segmentation
- arxiv url: http://arxiv.org/abs/2107.02586v1
- Date: Tue, 6 Jul 2021 12:57:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-07 19:54:36.789273
- Title: Differentially private federated deep learning for multi-site medical
image segmentation
- Title(参考訳): 多地点医用画像セグメンテーションのための差動的federated deep learning
- Authors: Alexander Ziller, Dmitrii Usynin, Nicolas Remerscheid, Moritz Knolle,
Marcus Makowski, Rickmer Braren, Daniel Rueckert, Georgios Kaissis
- Abstract要約: フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
- 参考スコア(独自算出の注目度): 56.30543374146002
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Collaborative machine learning techniques such as federated learning (FL)
enable the training of models on effectively larger datasets without data
transfer. Recent initiatives have demonstrated that segmentation models trained
with FL can achieve performance similar to locally trained models. However, FL
is not a fully privacy-preserving technique and privacy-centred attacks can
disclose confidential patient data. Thus, supplementing FL with
privacy-enhancing technologies (PTs) such as differential privacy (DP) is a
requirement for clinical applications in a multi-institutional setting. The
application of PTs to FL in medical imaging and the trade-offs between privacy
guarantees and model utility, the ramifications on training performance and the
susceptibility of the final models to attacks have not yet been conclusively
investigated. Here we demonstrate the first application of differentially
private gradient descent-based FL on the task of semantic segmentation in
computed tomography. We find that high segmentation performance is possible
under strong privacy guarantees with an acceptable training time penalty. We
furthermore demonstrate the first successful gradient-based model inversion
attack on a semantic segmentation model and show that the application of DP
prevents it from divulging sensitive image features.
- Abstract(参考訳): フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
最近のイニシアティブでは、flでトレーニングされたセグメンテーションモデルが、ローカルトレーニングされたモデルと同じようなパフォーマンスを達成できることが示されている。
しかし、flは完全なプライバシー保護技術ではなく、プライバシー中心の攻撃は機密の患者データを開示することができる。
したがって、差分プライバシー(dp)のようなプライバシエンハンシング技術(pts)をflを補完することは、多施設における臨床応用の要件である。
医療画像におけるPTの応用、プライバシ保証とモデルユーティリティのトレードオフ、トレーニングパフォーマンスへの影響、攻撃に対する最終モデルの受容性については、まだ決定的な調査が行われていない。
本稿では,計算トモグラフィにおけるセマンティックセグメンテーションの課題に対する差分的勾配降下に基づくFLの適用例を示す。
高いセグメンテーション性能は、高いプライバシー保証と許容するトレーニングタイムペナルティの下で実現可能である。
さらに,セマンティクスセグメンテーションモデルに対する最初の勾配ベースモデルインバージョン攻撃を実証し,dpの適用により感度の高い画像特徴の漏洩を防止できることを示した。
関連論文リスト
- FACMIC: Federated Adaptative CLIP Model for Medical Image Classification [12.166024140377337]
本稿では,CLIPモデルを用いた適応型コントラスト言語画像の分類処理について紹介する。
私たちはCLIP用の軽量で効率的な機能アテンションモジュールを採用し、各クライアントのデータに適した機能を選択します。
本稿では,クライアント間のデータ分散の差異を低減するためのドメイン適応手法を提案する。
論文 参考訳(メタデータ) (2024-10-08T13:24:10Z) - Enhancing the Utility of Privacy-Preserving Cancer Classification using Synthetic Data [5.448470199971472]
深層学習は、乳がん検出において放射線科医を補助する大きな可能性を秘めている。
最適なモデルパフォーマンスを達成することは、データの可用性と共有の制限によって妨げられます。
従来のディープラーニングモデルでは、センシティブなトレーニング情報を不注意にリークすることができる。
この研究は、プライバシー保護のディープラーニング技術の有用性の定量化を探求するこれらの課題に対処する。
論文 参考訳(メタデータ) (2024-07-17T15:52:45Z) - Privacy Preserving Federated Learning in Medical Imaging with Uncertainty Estimation [15.63535423357971]
機械学習(ML)と人工知能(AI)は、特に医療において顕著な進歩を加速している。医療画像では、MLモデルは、疾患の診断、治療計画、治療後のモニタリングを改善するという約束を持っている。
患者のデータを取り巻くプライバシーに関する懸念は、正確で堅牢で一般化可能なモデルの開発とトレーニングに必要な大規模なトレーニングデータセットの組み立てを妨げる。
フェデレートラーニング(FL)は魅力的なソリューションとして登場し、データ(医療画像など)ではなくモデルトレーニング情報(段階的)を共有することで、組織がMLモデルのトレーニングに協力できるようにする。
論文 参考訳(メタデータ) (2024-06-18T17:35:52Z) - Federated Learning with Privacy-Preserving Ensemble Attention
Distillation [63.39442596910485]
Federated Learning(FL)は、多くのローカルノードがトレーニングデータを分散化しながら、中央モデルを協調的にトレーニングする機械学習パラダイムである。
本稿では,未ラベル公開データを利用した一方向オフライン知識蒸留のためのプライバシー保護FLフレームワークを提案する。
我々の技術は、既存のFLアプローチのような分散的で異質なローカルデータを使用するが、より重要なのは、プライバシー漏洩のリスクを著しく低減することです。
論文 参考訳(メタデータ) (2022-10-16T06:44:46Z) - Label-Efficient Self-Supervised Federated Learning for Tackling Data
Heterogeneity in Medical Imaging [23.08596805950814]
医用画像解析のための頑健でラベル効率の良い自己教師型FLフレームワークを提案する。
具体的には,既存のFLパイプラインに分散自己教師型事前学習パラダイムを導入する。
自己教師付きFLアルゴリズムは,分布外データに対してよく一般化し,限定ラベルのシナリオにおいてより効果的にフェデレーションモデルを学習することを示す。
論文 参考訳(メタデータ) (2022-05-17T18:33:43Z) - Federated Contrastive Learning for Volumetric Medical Image Segmentation [16.3860181959878]
フェデレートラーニング(FL)は、プライバシのためのトレーニングデータをローカルに保持しながら、共有モデルを学ぶことで、この点において役立つ。
従来のFLはトレーニングのために完全にラベル付けされたデータを必要とする。
そこで本研究では,アノテーションを限定したボリューム・メディカル・イメージ・セグメンテーションのためのFCLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-23T03:47:23Z) - Closing the Generalization Gap of Cross-silo Federated Medical Image
Segmentation [66.44449514373746]
クロスサイロ・フェデレーション・ラーニング (FL) は近年, 深層学習による医用画像解析において注目されている。
FLでトレーニングされたモデルと、集中的なトレーニングでトレーニングされたモデルの間にはギャップがある。
本稿では,クライアントの問題を回避し,ドリフトギャップを解消するための新しいトレーニングフレームワークであるFedSMを提案する。
論文 参考訳(メタデータ) (2022-03-18T19:50:07Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。