論文の概要: Differential Privacy for Adaptive Weight Aggregation in Federated Tumor
Segmentation
- arxiv url: http://arxiv.org/abs/2308.00856v1
- Date: Tue, 1 Aug 2023 21:59:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-03 14:29:56.699459
- Title: Differential Privacy for Adaptive Weight Aggregation in Federated Tumor
Segmentation
- Title(参考訳): Federated tumor SegmentationにおけるAdaptive Weight Aggregationの差分プライバシー
- Authors: Muhammad Irfan Khan, Esa Alhoniemi, Elina Kontio, Suleiman A. Khan,
and Mojtaba Jafaritadi
- Abstract要約: Federated Learning(FL)は、個々のクライアントデータのプライバシを尊重しながら、公平なグローバルモデルを作成することによって、プライバシを保護する分散機械学習アプローチである。
医用画像セグメンテーションにおける差分プライバシー(DP)統合ディープラーニングフレームワークを提案する。
我々は, 類似度重み付け法(SimAgg)を, 脳腫瘍セグメント化のための差分プライベート類似度重み付けアルゴリズムDP-SimAggアルゴリズムに拡張する。
- 参考スコア(独自算出の注目度): 0.16746114653388383
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) is a distributed machine learning approach that
safeguards privacy by creating an impartial global model while respecting the
privacy of individual client data. However, the conventional FL method can
introduce security risks when dealing with diverse client data, potentially
compromising privacy and data integrity. To address these challenges, we
present a differential privacy (DP) federated deep learning framework in
medical image segmentation. In this paper, we extend our similarity weight
aggregation (SimAgg) method to DP-SimAgg algorithm, a differentially private
similarity-weighted aggregation algorithm for brain tumor segmentation in
multi-modal magnetic resonance imaging (MRI). Our DP-SimAgg method not only
enhances model segmentation capabilities but also provides an additional layer
of privacy preservation. Extensive benchmarking and evaluation of our
framework, with computational performance as a key consideration, demonstrate
that DP-SimAgg enables accurate and robust brain tumor segmentation while
minimizing communication costs during model training. This advancement is
crucial for preserving the privacy of medical image data and safeguarding
sensitive information. In conclusion, adding a differential privacy layer in
the global weight aggregation phase of the federated brain tumor segmentation
provides a promising solution to privacy concerns without compromising
segmentation model efficacy. By leveraging DP, we ensure the protection of
client data against adversarial attacks and malicious participants.
- Abstract(参考訳): Federated Learning(FL)は、個々のクライアントデータのプライバシを尊重しながら、公平なグローバルモデルを作成することによって、プライバシを保護する分散機械学習アプローチである。
しかし,従来のFL方式では,多様なクライアントデータを扱う場合のセキュリティリスクが生じる可能性がある。
これらの課題に対処するため,医療画像セグメンテーションにおける差分プライバシー(DP)統合ディープラーニングフレームワークを提案する。
本稿では,マルチモーダルmri(multi-modal magnetic resonance imaging)における脳腫瘍の分節化のための差分的類似度重み付けアルゴリズムdp-simagg法に類似度重み付け法(simagg法)を拡張した。
DP-SimAgg法は,モデルセグメンテーション機能の向上だけでなく,プライバシー保護の付加レイヤも提供する。
DP-SimAggは, モデルトレーニングにおける通信コストを最小化しつつ, 高精度でロバストな脳腫瘍セグメンテーションを実現することを実証した。
この進歩は、医療画像データのプライバシーを守り、機密情報を保護する上で重要である。
結論として、フェデレーション脳腫瘍分割のグローバル重み集約フェーズに差分プライバシー層を追加することは、セグメンテーションモデルの有効性を損なうことなく、プライバシの懸念に対して有望な解決策を提供する。
dpを利用することで,敵の攻撃や悪意のある参加者に対するクライアントデータの保護を確保する。
関連論文リスト
- A Differentially Private Weighted Empirical Risk Minimization Procedure
and its Application to Outcome Weighted Learning [5.025486694392673]
本稿では,DP保証の厳密な理論的証明を背景とした,最初の微分プライベートなwERMアルゴリズムを提案する。
本研究は,DP-wERMによる重み付け学習(OWL)の有効性について,シミュレーションおよび覚醒のためのメラトニン実効臨床試験で評価した。
論文 参考訳(メタデータ) (2023-07-24T21:03:25Z) - Client-Level Differential Privacy via Adaptive Intermediary in Federated
Medical Imaging [33.494287036763716]
プライバシ保護とパフォーマンスの差分プライバシ(DP)のトレードオフは、現実の医療シナリオではいまだ検討されていない。
本稿では,コミュニケーションにおけるプライバシを重視したクライアントレベルのDPのコンテキスト下でのトレードオフを最適化することを提案する。
プライバシを損なうことなくパフォーマンスを向上させるための適応型仲介手法を提案する。
論文 参考訳(メタデータ) (2023-07-24T06:12:37Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Personalized and privacy-preserving federated heterogeneous medical
image analysis with PPPML-HMI [15.031967569155748]
PPPML-HMIは、パーソナライズされ、プライバシー保護される異種医療画像分析のためのオープンソースの学習パラダイムである。
我々の知る限り、個人化とプライバシ保護は、連邦シナリオの下で初めて同時に達成されました。
PPPML-HMIは実世界の課題に対して,従来のFLに比べてDiceスコアが5%高い結果を得た。
論文 参考訳(メタデータ) (2023-02-20T07:37:03Z) - Exploratory Analysis of Federated Learning Methods with Differential
Privacy on MIMIC-III [0.7349727826230862]
フェデレートされた学習方法は、プライバシに敏感なデータセット上で機械学習モデルをトレーニングする可能性を提供する。
オープンソースMIMIC-IIIデータセット上でのトレーニングモデルにおいて,異なるフェデレーションおよび差分プライバシー手法が与える影響の評価を行う。
論文 参考訳(メタデータ) (2023-02-08T17:27:44Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Partial sensitivity analysis in differential privacy [58.730520380312676]
それぞれの入力特徴が個人のプライバシ損失に与える影響について検討する。
プライベートデータベース上でのクエリに対する我々のアプローチを実験的に評価する。
また、合成データにおけるニューラルネットワークトレーニングの文脈における知見についても検討する。
論文 参考訳(メタデータ) (2021-09-22T08:29:16Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。