論文の概要: Personalized and privacy-preserving federated heterogeneous medical
image analysis with PPPML-HMI
- arxiv url: http://arxiv.org/abs/2302.11571v1
- Date: Mon, 20 Feb 2023 07:37:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-24 17:15:55.820125
- Title: Personalized and privacy-preserving federated heterogeneous medical
image analysis with PPPML-HMI
- Title(参考訳): PPPML-HMIを用いたパーソナライズおよびプライバシ保護フェデレーションヘテロジニアス画像解析
- Authors: Juexiao Zhou, Longxi Zhou, Di Wang, Xiaopeng Xu, Haoyang Li, Yuetan
Chu, Wenkai Han, Xin Gao
- Abstract要約: PPPML-HMIは、パーソナライズされ、プライバシー保護される異種医療画像分析のためのオープンソースの学習パラダイムである。
我々の知る限り、個人化とプライバシ保護は、連邦シナリオの下で初めて同時に達成されました。
PPPML-HMIは実世界の課題に対して,従来のFLに比べてDiceスコアが5%高い結果を得た。
- 参考スコア(独自算出の注目度): 15.031967569155748
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Heterogeneous data is endemic due to the use of diverse models and settings
of devices by hospitals in the field of medical imaging. However, there are few
open-source frameworks for federated heterogeneous medical image analysis with
personalization and privacy protection simultaneously without the demand to
modify the existing model structures or to share any private data. In this
paper, we proposed PPPML-HMI, an open-source learning paradigm for personalized
and privacy-preserving federated heterogeneous medical image analysis. To our
best knowledge, personalization and privacy protection were achieved
simultaneously for the first time under the federated scenario by integrating
the PerFedAvg algorithm and designing our novel cyclic secure aggregation with
the homomorphic encryption algorithm. To show the utility of PPPML-HMI, we
applied it to a simulated classification task namely the classification of
healthy people and patients from the RAD-ChestCT Dataset, and one real-world
segmentation task namely the segmentation of lung infections from COVID-19 CT
scans. For the real-world task, PPPML-HMI achieved $\sim$5\% higher Dice score
on average compared to conventional FL under the heterogeneous scenario.
Meanwhile, we applied the improved deep leakage from gradients to simulate
adversarial attacks and showed the solid privacy-preserving capability of
PPPML-HMI. By applying PPPML-HMI to both tasks with different neural networks,
a varied number of users, and sample sizes, we further demonstrated the strong
robustness of PPPML-HMI.
- Abstract(参考訳): 不均一なデータは、医療画像の分野における病院による多様なモデルや機器の設定が原因で固有である。
しかし、既存のモデル構造を変更したり、プライベートデータを共有したりすることなく、パーソナライズとプライバシ保護を同時に行う統合異種医療画像分析のためのオープンソースフレームワークはほとんどない。
本稿では,PPPML-HMIを提案する。PPPML-HMIは,パーソナライズおよびプライバシ保護のためのフェデレーション・ヘテロジニアスな医用画像解析のためのオープンソースの学習パラダイムである。
最善の知識として,perfedavgアルゴリズムの統合とホモモルフィック暗号アルゴリズムによる新しい巡回的セキュアアグリゲーションの設計により,フェデレーションシナリオの下で初めてパーソナライゼーションとプライバシ保護を同時に達成した。
PPPML-HMIの有用性を示すために, RAD-ChestCTデータセットから健康な人や患者を分類するシミュレートされた分類タスクと, COVID-19 CTスキャンから肺感染症を分離する実世界のセグメンテーションタスクに応用した。
実世界のタスクでは、pppml-hmiは不均質なシナリオで従来のflよりも平均で$\sim$5\%高いダイススコアを達成した。
一方, PPPML-HMIでは, 対向攻撃をシミュレートするために, 勾配からの深部リークを改良した。
PPPML-HMIを、異なるニューラルネットワーク、多様なユーザ数、サンプルサイズの両方のタスクに適用することにより、PPPML-HMIの強靭性をさらに証明した。
関連論文リスト
- On the Impact of Data Heterogeneity in Federated Learning Environments with Application to Healthcare Networks [3.9058850780464884]
Federated Learning(FL)は、プライバシに敏感なアプリケーションが、情報を開示することなく、グローバルモデル構築のためにデータセットを活用することを可能にする。
これらの領域の1つは医療であり、サイロのグループは、精度と一般化を改善したグローバルな予測器を生成するために協力する。
本稿では,医学データの複雑さに着目し,FL環境における不均一性の数学的形式化と分類を包括的に調査する。
論文 参考訳(メタデータ) (2024-04-29T09:05:01Z) - Differential Privacy for Adaptive Weight Aggregation in Federated Tumor
Segmentation [0.16746114653388383]
Federated Learning(FL)は、個々のクライアントデータのプライバシを尊重しながら、公平なグローバルモデルを作成することによって、プライバシを保護する分散機械学習アプローチである。
医用画像セグメンテーションにおける差分プライバシー(DP)統合ディープラーニングフレームワークを提案する。
我々は, 類似度重み付け法(SimAgg)を, 脳腫瘍セグメント化のための差分プライベート類似度重み付けアルゴリズムDP-SimAggアルゴリズムに拡張する。
論文 参考訳(メタデータ) (2023-08-01T21:59:22Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Learnable Weight Initialization for Volumetric Medical Image Segmentation [66.3030435676252]
本稿では,学習可能な重みに基づくハイブリッド医療画像セグメンテーション手法を提案する。
我々のアプローチはどんなハイブリッドモデルにも簡単に統合でき、外部のトレーニングデータを必要としない。
多臓器・肺がんセグメンテーションタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-06-15T17:55:05Z) - A Differentially Private Probabilistic Framework for Modeling the
Variability Across Federated Datasets of Heterogeneous Multi-View
Observations [4.511923587827301]
我々のフレームワークは、潜在マスターの分布とクライアントのパラメータよりも期待(EM)によって効果的に最適化できることを示す。
アルツハイマー病に罹患した患者の臨床データから, マルチモーダル・メディカル・イメージング・データの解析と臨床成績について検討した。
論文 参考訳(メタデータ) (2022-04-15T07:20:47Z) - Complex-valued Federated Learning with Differential Privacy and MRI Applications [51.34714485616763]
複雑な値を持つガウスのメカニズムを導入し、その振る舞いは$f$-DP、$(varepsilon, delta)$-DP、R'enyi-DPで特徴づけられる。
本稿では,DPと互換性のある複雑なニューラルネットワークプリミティブを提案する。
実験では,実世界の課題に対して,DPを用いた複合数値ニューラルネットワークを訓練することで概念実証を行う。
論文 参考訳(メタデータ) (2021-10-07T14:03:00Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z) - G-MIND: An End-to-End Multimodal Imaging-Genetics Framework for
Biomarker Identification and Disease Classification [49.53651166356737]
診断によって誘導される画像データと遺伝データを統合し、解釈可能なバイオマーカーを提供する新しいディープニューラルネットワークアーキテクチャを提案する。
2つの機能的MRI(fMRI)パラダイムとSingle Nucleotide Polymorphism (SNP)データを含む統合失調症の集団研究で本モデルを評価した。
論文 参考訳(メタデータ) (2021-01-27T19:28:04Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Multi-site fMRI Analysis Using Privacy-preserving Federated Learning and
Domain Adaptation: ABIDE Results [13.615292855384729]
高品質なディープラーニングモデルを訓練するには,大量の患者情報を集める必要がある。
患者データのプライバシを保護する必要があるため、複数の機関から中央データベースを組み立てることは困難である。
フェデレート・ラーニング(Federated Learning)は、エンティティのデータを集中化せずに、人口レベルのモデルをトレーニングすることを可能にする。
論文 参考訳(メタデータ) (2020-01-16T04:49:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。