論文の概要: Harvesting Private Medical Images in Federated Learning Systems with Crafted Models
- arxiv url: http://arxiv.org/abs/2407.09972v1
- Date: Sat, 13 Jul 2024 18:31:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 19:58:18.454541
- Title: Harvesting Private Medical Images in Federated Learning Systems with Crafted Models
- Title(参考訳): 造形モデルを用いたフェデレーション学習システムにおける私的医用画像のハーベスティング
- Authors: Shanghao Shi, Md Shahedul Haque, Abhijeet Parida, Marius George Linguraru, Y. Thomas Hou, Syed Muhammad Anwar, Wenjing Lou,
- Abstract要約: フェデレートラーニング(FL)は、一連のクライアントが、ローカルトレーニングサンプルを公開することなく、機械学習モデルを協調的にトレーニングすることを可能にする。
本稿では、悪意のあるパラメーターサーバが高忠実度患者画像の復元を可能にする、MediLeakという新しい攻撃を提案する。
MedMNIST と COVIDx CXR-4 のデータセットに MediLeak を実装した。
- 参考スコア(独自算出の注目度): 21.78355149716782
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) allows a set of clients to collaboratively train a machine-learning model without exposing local training samples. In this context, it is considered to be privacy-preserving and hence has been adopted by medical centers to train machine-learning models over private data. However, in this paper, we propose a novel attack named MediLeak that enables a malicious parameter server to recover high-fidelity patient images from the model updates uploaded by the clients. MediLeak requires the server to generate an adversarial model by adding a crafted module in front of the original model architecture. It is published to the clients in the regular FL training process and each client conducts local training on it to generate corresponding model updates. Then, based on the FL protocol, the model updates are sent back to the server and our proposed analytical method recovers private data from the parameter updates of the crafted module. We provide a comprehensive analysis for MediLeak and show that it can successfully break the state-of-the-art cryptographic secure aggregation protocols, designed to protect the FL systems from privacy inference attacks. We implement MediLeak on the MedMNIST and COVIDx CXR-4 datasets. The results show that MediLeak can nearly perfectly recover private images with high recovery rates and quantitative scores. We further perform downstream tasks such as disease classification with the recovered data, where our results show no significant performance degradation compared to using the original training samples.
- Abstract(参考訳): フェデレートラーニング(FL)は、一連のクライアントが、ローカルトレーニングサンプルを公開することなく、機械学習モデルを協調的にトレーニングすることを可能にする。
この文脈では、プライバシ保護であると考えられており、それゆえ、医療センターがプライベートデータ上で機械学習モデルをトレーニングするために採用されている。
しかし,本稿では,悪意のあるパラメータサーバが,クライアントがアップロードしたモデル更新から高忠実度患者イメージを復元することのできる,MediLeakという新たな攻撃を提案する。
MediLeakはサーバに対して、オリジナルのモデルアーキテクチャの前に工芸的なモジュールを追加することで、敵モデルを生成することを要求する。
通常のFLトレーニングプロセスでクライアントに公開され、各クライアントは、対応するモデル更新を生成するために、その上でローカルトレーニングを実行する。
そして、FLプロトコルに基づいて、モデル更新をサーバに送信し、提案手法により、工芸モジュールのパラメータ更新からプライベートデータを復元する。
MediLeakの包括的分析を行い、FLシステムをプライバシ推論攻撃から保護するために設計された最先端の暗号化セキュアアグリゲーションプロトコルを破ることに成功したことを示す。
MedMNIST と COVIDx CXR-4 のデータセットに MediLeak を実装した。
その結果、MediLeakは高いリカバリ率と定量的スコアで、ほぼ完全にプライベートイメージを復元できることがわかった。
さらに,回復したデータを用いた疾患分類などの下流タスクも実施し,本研究の結果は,元のトレーニングサンプルと比較すると,有意な性能低下は示さなかった。
関連論文リスト
- FACMIC: Federated Adaptative CLIP Model for Medical Image Classification [12.166024140377337]
本稿では,CLIPモデルを用いた適応型コントラスト言語画像の分類処理について紹介する。
私たちはCLIP用の軽量で効率的な機能アテンションモジュールを採用し、各クライアントのデータに適した機能を選択します。
本稿では,クライアント間のデータ分散の差異を低減するためのドメイン適応手法を提案する。
論文 参考訳(メタデータ) (2024-10-08T13:24:10Z) - BAPLe: Backdoor Attacks on Medical Foundational Models using Prompt Learning [71.60858267608306]
医療基盤モデルはバックドア攻撃の影響を受けやすい。
本研究は,素早い学習期間中に医療基盤モデルにバックドアを埋め込む方法を紹介する。
我々の手法であるBAPLeは、ノイズトリガを調整するために最小限のデータサブセットしか必要とせず、テキストは下流のタスクにプロンプトする。
論文 参考訳(メタデータ) (2024-08-14T10:18:42Z) - Histopathological Image Classification and Vulnerability Analysis using
Federated Learning [1.104960878651584]
グローバルモデルがそのコピーをトレーニングしているすべてのクライアントに送信し、クライアントは更新(重み)を返送する。
データプライバシは、クライアントのデバイス上でローカルに実行されるため、トレーニング中に保護される。
しかし、グローバルモデルはデータ中毒攻撃の影響を受けやすい。
論文 参考訳(メタデータ) (2023-10-11T10:55:14Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Federated Learning of Medical Concepts Embedding using BEHRT [0.0]
医療概念の埋め込み学習のための連合学習手法を提案する。
我々のアプローチは、EHRのディープニューラルネットワークモデルであるBEHRTのような埋め込みモデルに基づいている。
我々は、FLで訓練されたモデルと集中型データで訓練されたモデルのパフォーマンスを比較した。
論文 参考訳(メタデータ) (2023-05-22T14:05:39Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - CANIFE: Crafting Canaries for Empirical Privacy Measurement in Federated
Learning [77.27443885999404]
Federated Learning(FL)は、分散環境で機械学習モデルをトレーニングするための設定である。
本稿では,訓練ラウンドの経験的プライバシを評価するために,強敵による慎重なサンプル作成手法であるCANIFEを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:30:16Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Personalized Retrogress-Resilient Framework for Real-World Medical
Federated Learning [8.240098954377794]
本稿では,各クライアントに対して優れたパーソナライズモデルを生成するために,パーソナライズされた回帰耐性フレームワークを提案する。
実世界の皮膚内視鏡的FLデータセットに関する実験により、我々のパーソナライズされた回帰抵抗性フレームワークが最先端のFL手法より優れていることが証明された。
論文 参考訳(メタデータ) (2021-10-01T13:24:29Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z) - Dynamic Fusion based Federated Learning for COVID-19 Detection [24.644484914824844]
本稿では,医療診断画像解析のためのダイナミックフュージョンに基づくフェデレーション学習手法を提案する。
本稿では,各クライアントのローカルモデルの性能に応じて動的にクライアントを決定するダイナミックフュージョン法を提案し,そのモデルフュージョンをトレーニング時間に基づいてスケジュールする。
評価の結果,提案手法は,フェデレート学習の既定設定よりも実現可能であり,性能も向上していることがわかった。
論文 参考訳(メタデータ) (2020-09-22T09:09:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。