論文の概要: Decentralised, Collaborative, and Privacy-preserving Machine Learning for Multi-Hospital Data
- arxiv url: http://arxiv.org/abs/2402.00205v2
- Date: Sun, 28 Apr 2024 16:00:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-30 23:45:39.118570
- Title: Decentralised, Collaborative, and Privacy-preserving Machine Learning for Multi-Hospital Data
- Title(参考訳): マルチホスピタルデータのための分散型・協調型・プライバシ保護型機械学習
- Authors: Congyu Fang, Adam Dziedzic, Lin Zhang, Laura Oliva, Amol Verma, Fahad Razak, Nicolas Papernot, Bo Wang,
- Abstract要約: マルチホスピタルデータ(DeCaPH)のための分散型・協調型・プライバシ保護型MLを提案する。
実世界の分散医療データセットを用いた3つのタスクにおけるDeCaPHの一般化可能性とパワーを実証する。
- 参考スコア(独自算出の注目度): 31.106733834322394
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine Learning (ML) has demonstrated its great potential on medical data analysis. Large datasets collected from diverse sources and settings are essential for ML models in healthcare to achieve better accuracy and generalizability. Sharing data across different healthcare institutions is challenging because of complex and varying privacy and regulatory requirements. Hence, it is hard but crucial to allow multiple parties to collaboratively train an ML model leveraging the private datasets available at each party without the need for direct sharing of those datasets or compromising the privacy of the datasets through collaboration. In this paper, we address this challenge by proposing Decentralized, Collaborative, and Privacy-preserving ML for Multi-Hospital Data (DeCaPH). It offers the following key benefits: (1) it allows different parties to collaboratively train an ML model without transferring their private datasets; (2) it safeguards patient privacy by limiting the potential privacy leakage arising from any contents shared across the parties during the training process; and (3) it facilitates the ML model training without relying on a centralized server. We demonstrate the generalizability and power of DeCaPH on three distinct tasks using real-world distributed medical datasets: patient mortality prediction using electronic health records, cell-type classification using single-cell human genomes, and pathology identification using chest radiology images. We demonstrate that the ML models trained with DeCaPH framework have an improved utility-privacy trade-off, showing it enables the models to have good performance while preserving the privacy of the training data points. In addition, the ML models trained with DeCaPH framework in general outperform those trained solely with the private datasets from individual parties, showing that DeCaPH enhances the model generalizability.
- Abstract(参考訳): 機械学習(ML)は、医療データ分析に大きな可能性を実証している。
さまざまなソースや設定から収集された大規模なデータセットは、より正確な精度と一般化性を達成するために、医療におけるMLモデルにとって不可欠である。
さまざまな医療機関間でデータを共有することは、複雑で多様なプライバシーと規制要件のために難しい。
したがって、複数のパーティが、これらのデータセットを直接共有したり、コラボレーションを通じてデータセットのプライバシを妥協することなく、各パーティで利用可能なプライベートデータセットを活用するMLモデルを共同でトレーニングすることは、困難だが重要なことです。
本稿では,マルチホスピタルデータ(DeCaPH)のための分散型,協調型,プライバシ保護型MLを提案することで,この問題に対処する。
1)プライベートデータセットを転送せずにMLモデルを協調的にトレーニングすること、(2)トレーニングプロセス中に参加者間で共有されるコンテンツから生じる潜在的なプライバシー漏洩を制限し、患者のプライバシを保護すること、(3)集中型サーバに頼ることなくMLモデルのトレーニングを容易にすること、である。
本研究では,電子健康記録を用いた患者死亡予測,単細胞ヒトゲノムを用いた細胞型分類,胸部X線像を用いた病理診断の3つの課題におけるDeCaPHの一般化可能性と能力を示す。
DeCaPHフレームワークでトレーニングされたMLモデルは、ユーティリティとプライバシのトレードオフを改善し、トレーニングデータポイントのプライバシを保ちながら、優れたパフォーマンスが得られることを示した。
さらに、DeCaPHフレームワークでトレーニングされたMLモデルは、個々のパーティからのプライベートデータセットでのみトレーニングされたモデルよりも優れており、DeCaPHがモデルの一般化性を高めることを示している。
関連論文リスト
- EPIC: Enhancing Privacy through Iterative Collaboration [4.199844472131922]
従来の機械学習技術は、中央集権的なデータ収集と処理を必要とする。
医療データを集中ストレージにプールする場合、プライバシ、オーナシップ、厳格な規制の問題が存在する。
フェデレートラーニング(FL)アプローチは、中央アグリゲータサーバと共有グローバルモデルを設定することで、そのような問題を克服する。
論文 参考訳(メタデータ) (2024-11-07T20:10:34Z) - Improving the Classification Effect of Clinical Images of Diseases for Multi-Source Privacy Protection [0.0]
医療分野におけるプライバシーデータ保護は、データ共有に課題をもたらす。
従来の集中型トレーニング手法は、プライバシー保護原則に違反しているため、適用が難しい。
データベクトルに基づく医療プライバシデータトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-23T12:52:24Z) - Federated Learning Empowered by Generative Content [55.576885852501775]
フェデレートラーニング(FL)は、プライバシ保護方法でモデルのトレーニングに分散プライベートデータを活用可能にする。
本稿では,FedGCと呼ばれる新しいFLフレームワークを提案する。
我々は、さまざまなベースライン、データセット、シナリオ、モダリティをカバーする、FedGCに関する体系的な実証的研究を行う。
論文 参考訳(メタデータ) (2023-12-10T07:38:56Z) - Learnable Weight Initialization for Volumetric Medical Image Segmentation [66.3030435676252]
本稿では,学習可能な重みに基づくハイブリッド医療画像セグメンテーション手法を提案する。
我々のアプローチはどんなハイブリッドモデルにも簡単に統合でき、外部のトレーニングデータを必要としない。
多臓器・肺がんセグメンテーションタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-06-15T17:55:05Z) - Patchwork Learning: A Paradigm Towards Integrative Analysis across
Diverse Biomedical Data Sources [40.32772510980854]
パッチワーク学習(PL)とは、異なるデータモダリティからなる異なるデータセットからの情報を統合するパラダイムである。
PLはデータのプライバシを保持しながら、補完的なデータソースの同時利用を可能にする。
本稿では、パッチワーク学習の概念とその医療における実装について紹介し、潜在的な機会と適用可能なデータソースを探求する。
論文 参考訳(メタデータ) (2023-05-10T14:50:33Z) - Federated Learning Enables Big Data for Rare Cancer Boundary Detection [98.5549882883963]
6大陸にわたる71の医療機関のデータを含む,これまでで最大のフェデレーテッドML研究の結果を報告する。
グリオ芽腫の稀な疾患に対する腫瘍境界自動検出装置を作製した。
当科では, 外科的に標的とした腫瘍の悪性度を高めるために, 33%の改善率を示し, 腫瘍全体に対する23%の改善率を示した。
論文 参考訳(メタデータ) (2022-04-22T17:27:00Z) - When Accuracy Meets Privacy: Two-Stage Federated Transfer Learning
Framework in Classification of Medical Images on Limited Data: A COVID-19
Case Study [77.34726150561087]
新型コロナウイルスのパンデミックが急速に広がり、世界の医療資源が不足している。
CNNは医療画像の解析に広く利用され、検証されている。
論文 参考訳(メタデータ) (2022-03-24T02:09:41Z) - Practical Challenges in Differentially-Private Federated Survival
Analysis of Medical Data [57.19441629270029]
本稿では,ニューラルネットワークの本質的特性を活用し,生存分析モデルの訓練過程を関連づける。
小さな医療データセットと少数のデータセンターの現実的な設定では、このノイズはモデルを収束させるのが難しくなります。
DPFed-post は,私的フェデレート学習方式に後処理の段階を追加する。
論文 参考訳(メタデータ) (2022-02-08T10:03:24Z) - Machine Learning in Precision Medicine to Preserve Privacy via
Encryption [2.099922236065961]
我々は,がんを予測するMLモデルの構築に使用した,暗号化(MLE)フレームワークを用いた汎用機械学習を提案する。
我々のフレームワークの予測精度は、同じデータセット上で実施された最新の研究よりもわずかに高い。
私たちは、フレームワークの設計と実装、すべてのML実験とコード、そして、無料のクラウドサービスにデプロイされた最終的な予測モデルを含む、オープンソースのリポジトリを提供しています。
論文 参考訳(メタデータ) (2021-02-05T20:22:15Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Anonymizing Data for Privacy-Preserving Federated Learning [3.3673553810697827]
我々は,フェデレートラーニングの文脈において,プライバシを提供するための最初の構文的アプローチを提案する。
当社のアプローチは,プライバシの保護レベルをサポートしながら,実用性やモデルの性能を最大化することを目的としている。
医療領域における2つの重要な課題について,100万人の患者の実世界電子健康データを用いて包括的実証評価を行った。
論文 参考訳(メタデータ) (2020-02-21T02:30:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。