論文の概要: Differential Privacy for Adaptive Weight Aggregation in Federated Tumor
Segmentation
- arxiv url: http://arxiv.org/abs/2308.00856v1
- Date: Tue, 1 Aug 2023 21:59:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-03 14:29:56.699459
- Title: Differential Privacy for Adaptive Weight Aggregation in Federated Tumor
Segmentation
- Title(参考訳): Federated tumor SegmentationにおけるAdaptive Weight Aggregationの差分プライバシー
- Authors: Muhammad Irfan Khan, Esa Alhoniemi, Elina Kontio, Suleiman A. Khan,
and Mojtaba Jafaritadi
- Abstract要約: Federated Learning(FL)は、個々のクライアントデータのプライバシを尊重しながら、公平なグローバルモデルを作成することによって、プライバシを保護する分散機械学習アプローチである。
医用画像セグメンテーションにおける差分プライバシー(DP)統合ディープラーニングフレームワークを提案する。
我々は, 類似度重み付け法(SimAgg)を, 脳腫瘍セグメント化のための差分プライベート類似度重み付けアルゴリズムDP-SimAggアルゴリズムに拡張する。
- 参考スコア(独自算出の注目度): 0.16746114653388383
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) is a distributed machine learning approach that
safeguards privacy by creating an impartial global model while respecting the
privacy of individual client data. However, the conventional FL method can
introduce security risks when dealing with diverse client data, potentially
compromising privacy and data integrity. To address these challenges, we
present a differential privacy (DP) federated deep learning framework in
medical image segmentation. In this paper, we extend our similarity weight
aggregation (SimAgg) method to DP-SimAgg algorithm, a differentially private
similarity-weighted aggregation algorithm for brain tumor segmentation in
multi-modal magnetic resonance imaging (MRI). Our DP-SimAgg method not only
enhances model segmentation capabilities but also provides an additional layer
of privacy preservation. Extensive benchmarking and evaluation of our
framework, with computational performance as a key consideration, demonstrate
that DP-SimAgg enables accurate and robust brain tumor segmentation while
minimizing communication costs during model training. This advancement is
crucial for preserving the privacy of medical image data and safeguarding
sensitive information. In conclusion, adding a differential privacy layer in
the global weight aggregation phase of the federated brain tumor segmentation
provides a promising solution to privacy concerns without compromising
segmentation model efficacy. By leveraging DP, we ensure the protection of
client data against adversarial attacks and malicious participants.
- Abstract(参考訳): Federated Learning(FL)は、個々のクライアントデータのプライバシを尊重しながら、公平なグローバルモデルを作成することによって、プライバシを保護する分散機械学習アプローチである。
しかし,従来のFL方式では,多様なクライアントデータを扱う場合のセキュリティリスクが生じる可能性がある。
これらの課題に対処するため,医療画像セグメンテーションにおける差分プライバシー(DP)統合ディープラーニングフレームワークを提案する。
本稿では,マルチモーダルmri(multi-modal magnetic resonance imaging)における脳腫瘍の分節化のための差分的類似度重み付けアルゴリズムdp-simagg法に類似度重み付け法(simagg法)を拡張した。
DP-SimAgg法は,モデルセグメンテーション機能の向上だけでなく,プライバシー保護の付加レイヤも提供する。
DP-SimAggは, モデルトレーニングにおける通信コストを最小化しつつ, 高精度でロバストな脳腫瘍セグメンテーションを実現することを実証した。
この進歩は、医療画像データのプライバシーを守り、機密情報を保護する上で重要である。
結論として、フェデレーション脳腫瘍分割のグローバル重み集約フェーズに差分プライバシー層を追加することは、セグメンテーションモデルの有効性を損なうことなく、プライバシの懸念に対して有望な解決策を提供する。
dpを利用することで,敵の攻撃や悪意のある参加者に対するクライアントデータの保護を確保する。
関連論文リスト
- FedDP: Privacy-preserving method based on federated learning for histopathology image segmentation [2.864354559973703]
本稿では,医用画像データの分散特性とプライバシ感受性について,フェデレート学習フレームワークを用いて検討する。
提案手法であるFedDPは,がん画像データのプライバシーを効果的に保護しつつ,モデルの精度に最小限の影響を与える。
論文 参考訳(メタデータ) (2024-11-07T08:02:58Z) - Empowering Healthcare through Privacy-Preserving MRI Analysis [3.6394715554048234]
本稿では,Ensemble-Based Federated Learning (EBFL)フレームワークを紹介する。
EBFLフレームワークは、機密性の高い患者データを共有することよりも、モデルの特徴を強調することによって、従来のアプローチから逸脱する。
グリオーマ,髄膜腫,下垂体,非腫瘍例などの脳腫瘍の分類において,有意な精度が得られた。
論文 参考訳(メタデータ) (2024-03-14T19:51:18Z) - Client-Level Differential Privacy via Adaptive Intermediary in Federated
Medical Imaging [33.494287036763716]
プライバシ保護とパフォーマンスの差分プライバシ(DP)のトレードオフは、現実の医療シナリオではいまだ検討されていない。
本稿では,コミュニケーションにおけるプライバシを重視したクライアントレベルのDPのコンテキスト下でのトレードオフを最適化することを提案する。
プライバシを損なうことなくパフォーマンスを向上させるための適応型仲介手法を提案する。
論文 参考訳(メタデータ) (2023-07-24T06:12:37Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Personalized and privacy-preserving federated heterogeneous medical
image analysis with PPPML-HMI [15.031967569155748]
PPPML-HMIは、パーソナライズされ、プライバシー保護される異種医療画像分析のためのオープンソースの学習パラダイムである。
我々の知る限り、個人化とプライバシ保護は、連邦シナリオの下で初めて同時に達成されました。
PPPML-HMIは実世界の課題に対して,従来のFLに比べてDiceスコアが5%高い結果を得た。
論文 参考訳(メタデータ) (2023-02-20T07:37:03Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Complex-valued Federated Learning with Differential Privacy and MRI Applications [51.34714485616763]
複雑な値を持つガウスのメカニズムを導入し、その振る舞いは$f$-DP、$(varepsilon, delta)$-DP、R'enyi-DPで特徴づけられる。
本稿では,DPと互換性のある複雑なニューラルネットワークプリミティブを提案する。
実験では,実世界の課題に対して,DPを用いた複合数値ニューラルネットワークを訓練することで概念実証を行う。
論文 参考訳(メタデータ) (2021-10-07T14:03:00Z) - Partial sensitivity analysis in differential privacy [58.730520380312676]
それぞれの入力特徴が個人のプライバシ損失に与える影響について検討する。
プライベートデータベース上でのクエリに対する我々のアプローチを実験的に評価する。
また、合成データにおけるニューラルネットワークトレーニングの文脈における知見についても検討する。
論文 参考訳(メタデータ) (2021-09-22T08:29:16Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。