論文の概要: MedLeak: Multimodal Medical Data Leakage in Secure Federated Learning with Crafted Models
- arxiv url: http://arxiv.org/abs/2407.09972v2
- Date: Sun, 29 Jun 2025 15:48:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.358183
- Title: MedLeak: Multimodal Medical Data Leakage in Secure Federated Learning with Crafted Models
- Title(参考訳): MedLeak: 設計モデルによるセキュアなフェデレーション学習におけるマルチモーダル医療データ漏洩
- Authors: Shanghao Shi, Md Shahedul Haque, Abhijeet Parida, Chaoyu Zhang, Marius George Linguraru, Y. Thomas Hou, Syed Muhammad Anwar, Wenjing Lou,
- Abstract要約: フェデレーション・ラーニング(FL)は、参加者がデータをローカルに保ちながら、機械学習モデルを協調的にトレーニングすることを可能にする。
我々は、悪意のあるFLサーバが高品質なサイト固有の医療データを復元できる、MedLeakと呼ばれる新しいプライバシ攻撃を提案する。
- 参考スコア(独自算出の注目度): 20.884070284666105
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) allows participants to collaboratively train machine learning models while keeping their data local, making it ideal for collaborations among healthcare institutions on sensitive data. However, in this paper, we propose a novel privacy attack called MedLeak, which allows a malicious FL server to recover high-quality site-specific private medical data from the client model updates. MedLeak works by introducing an adversarially crafted model during the FL training process. Honest clients, unaware of the insidious changes in the published models, continue to send back their updates as per the standard FL protocol. Leveraging a novel analytical method, MedLeak can efficiently recover private client data from the aggregated parameter updates, eliminating costly optimization. In addition, the scheme relies solely on the aggregated updates, thus rendering secure aggregation protocols ineffective, as they depend on the randomization of intermediate results for security while leaving the final aggregated results unaltered. We implement MedLeak on medical image datasets (MedMNIST, COVIDx CXR-4, and Kaggle Brain Tumor MRI), as well as a medical text dataset (MedAbstract). The results demonstrate that our attack achieves high recovery rates and strong quantitative scores on both image and text datasets. We also thoroughly evaluate MedLeak across different attack parameters, providing insights into key factors that influence attack performance and potential defenses. Furthermore, we demonstrate that the recovered data can support downstream tasks such as disease classification with minimal performance loss. Our findings validate the need for enhanced privacy measures in FL systems, particularly for safeguarding sensitive medical data against powerful model inversion attacks.
- Abstract(参考訳): フェデレーション・ラーニング(FL)は、参加者がデータをローカルに保ちながら、機械学習モデルを協調的にトレーニングすることを可能にする。
しかし,本稿では,悪意のあるFLサーバがクライアントモデル更新から高品質なサイト固有の医療データを復元することのできる,MedLeakと呼ばれる新たなプライバシ攻撃を提案する。
MedLeakは、FLトレーニングプロセス中に逆向きに製作されたモデルを導入することで機能する。
正直なクライアントは、公表されたモデルの変更に気づかず、標準のFLプロトコルに従ってアップデートを送り続けます。
新たな分析手法を活用することで、MedLeakは集約されたパラメータ更新からプライベートクライアントデータを効率よく回収し、コストのかかる最適化をなくすことができる。
さらに、このスキームは集約された更新のみに依存しており、最終的な集約された結果が変更されていないままで、セキュリティのための中間結果のランダム化に依存するため、セキュアな集約プロトコルを非効率にレンダリングする。
医用画像データセット(MedMNIST,COVIDx CXR-4,Kaggle Brain tumor MRI)と医療用テキストデータセット(MedAbstract)にMedLeakを実装した。
その結果,画像とテキストの双方で高い回復率と強力な定量的スコアが得られた。
我々はまた、異なる攻撃パラメータにわたってMedLeakを徹底的に評価し、攻撃性能や潜在的な防御に影響を及ぼす重要な要因について洞察を提供する。
さらに、回復したデータは、パフォーマンス損失を最小限に抑えた病気分類などの下流タスクをサポートできることを実証した。
FLシステムにおけるプライバシー対策の強化の必要性,特に強力なモデル逆転攻撃に対する機密医療データの保護の必要性を検証した。
関連論文リスト
- FACMIC: Federated Adaptative CLIP Model for Medical Image Classification [12.166024140377337]
本稿では,CLIPモデルを用いた適応型コントラスト言語画像の分類処理について紹介する。
私たちはCLIP用の軽量で効率的な機能アテンションモジュールを採用し、各クライアントのデータに適した機能を選択します。
本稿では,クライアント間のデータ分散の差異を低減するためのドメイン適応手法を提案する。
論文 参考訳(メタデータ) (2024-10-08T13:24:10Z) - BAPLe: Backdoor Attacks on Medical Foundational Models using Prompt Learning [71.60858267608306]
医療基盤モデルはバックドア攻撃の影響を受けやすい。
本研究は,素早い学習期間中に医療基盤モデルにバックドアを埋め込む方法を紹介する。
我々の手法であるBAPLeは、ノイズトリガを調整するために最小限のデータサブセットしか必要とせず、テキストは下流のタスクにプロンプトする。
論文 参考訳(メタデータ) (2024-08-14T10:18:42Z) - Histopathological Image Classification and Vulnerability Analysis using
Federated Learning [1.104960878651584]
グローバルモデルがそのコピーをトレーニングしているすべてのクライアントに送信し、クライアントは更新(重み)を返送する。
データプライバシは、クライアントのデバイス上でローカルに実行されるため、トレーニング中に保護される。
しかし、グローバルモデルはデータ中毒攻撃の影響を受けやすい。
論文 参考訳(メタデータ) (2023-10-11T10:55:14Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Federated Learning of Medical Concepts Embedding using BEHRT [0.0]
医療概念の埋め込み学習のための連合学習手法を提案する。
我々のアプローチは、EHRのディープニューラルネットワークモデルであるBEHRTのような埋め込みモデルに基づいている。
我々は、FLで訓練されたモデルと集中型データで訓練されたモデルのパフォーマンスを比較した。
論文 参考訳(メタデータ) (2023-05-22T14:05:39Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - CANIFE: Crafting Canaries for Empirical Privacy Measurement in Federated
Learning [77.27443885999404]
Federated Learning(FL)は、分散環境で機械学習モデルをトレーニングするための設定である。
本稿では,訓練ラウンドの経験的プライバシを評価するために,強敵による慎重なサンプル作成手法であるCANIFEを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:30:16Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Personalized Retrogress-Resilient Framework for Real-World Medical
Federated Learning [8.240098954377794]
本稿では,各クライアントに対して優れたパーソナライズモデルを生成するために,パーソナライズされた回帰耐性フレームワークを提案する。
実世界の皮膚内視鏡的FLデータセットに関する実験により、我々のパーソナライズされた回帰抵抗性フレームワークが最先端のFL手法より優れていることが証明された。
論文 参考訳(メタデータ) (2021-10-01T13:24:29Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z) - Dynamic Fusion based Federated Learning for COVID-19 Detection [24.644484914824844]
本稿では,医療診断画像解析のためのダイナミックフュージョンに基づくフェデレーション学習手法を提案する。
本稿では,各クライアントのローカルモデルの性能に応じて動的にクライアントを決定するダイナミックフュージョン法を提案し,そのモデルフュージョンをトレーニング時間に基づいてスケジュールする。
評価の結果,提案手法は,フェデレート学習の既定設定よりも実現可能であり,性能も向上していることがわかった。
論文 参考訳(メタデータ) (2020-09-22T09:09:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。