論文の概要: Federated Learning for Privacy-Preserving Medical AI
- arxiv url: http://arxiv.org/abs/2603.15901v1
- Date: Mon, 16 Mar 2026 20:46:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:06.981754
- Title: Federated Learning for Privacy-Preserving Medical AI
- Title(参考訳): プライバシ保護型医療AIのためのフェデレーションラーニング
- Authors: Tin Hoang,
- Abstract要約: この論文は,3次元MRIデータを用いたアルツハイマー病分類のためのプライバシ保護フェデレーション学習について検討した。
既存の方法論は、非現実的なデータパーティショニング、不適切なプライバシー保証、不十分なベンチマークに悩まされることが多い。
これらのギャップに対処するために,施設の境界を保った新しいサイト対応データ分割戦略を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This dissertation investigates privacy-preserving federated learning for Alzheimer's disease classification using three-dimensional MRI data from the Alzheimer's Disease Neuroimaging Initiative (ADNI). Existing methodologies often suffer from unrealistic data partitioning, inadequate privacy guarantees, and insufficient benchmarking, limiting their practical deployment in healthcare. To address these gaps, this research proposes a novel site-aware data partitioning strategy that preserves institutional boundaries, reflecting real-world multi-institutional collaborations and data heterogeneity. Furthermore, an Adaptive Local Differential Privacy (ALDP) mechanism is introduced, dynamically adjusting privacy parameters based on training progression and parameter characteristics, thereby significantly improving the privacy-utility trade-off over traditional fixed-noise approaches. Systematic empirical evaluation across multiple client federations and privacy budgets demonstrated that advanced federated optimisation algorithms, particularly FedProx, could equal or surpass centralised training performance while ensuring rigorous privacy protection. Notably, ALDP achieved up to 80.4% accuracy in a two-client configuration, surpassing fixed-noise Local DP by 5-7 percentage points and demonstrating substantially greater training stability. The comprehensive ablation studies and benchmarking establish quantitative standards for privacy-preserving collaborative medical AI, providing practical guidelines for real-world deployment. This work thereby advances the state-of-the-art in federated learning for medical imaging, establishing both methodological foundations and empirical evidence necessary for future privacy-compliant AI adoption in healthcare.
- Abstract(参考訳): この論文は、アルツハイマー病神経画像イニシアチブ(ADNI)の3次元MRIデータを用いて、アルツハイマー病分類のためのプライバシー保護フェデレーション学習を調査した。
既存の方法論は、非現実的なデータのパーティショニング、プライバシー保証の不十分、ベンチマークの不十分、医療における実践的デプロイメントの制限に悩まされることが多い。
これらのギャップに対処するために,実世界の多施設連携とデータ不均一性を反映した,制度的境界を保った新しいサイト対応データ分割戦略を提案する。
さらに、適応型局所微分プライバシー(ALDP)機構を導入し、トレーニングの進行とパラメータ特性に基づいて、動的にプライバシパラメータを調整することにより、従来の固定ノイズアプローチに比べて、プライバシとユーティリティのトレードオフを大幅に改善する。
複数のクライアントフェデレーションとプライバシ予算の体系的な経験的評価は、高度なフェデレーション最適化アルゴリズム、特にFedProxが厳格なプライバシ保護を確保しながら、集中的なトレーニングパフォーマンスを同等または超えることを示した。
特にALDPは2サイクル構成で80.4%の精度を達成し、固定ノイズローカルDPを5-7ポイント上回り、トレーニング安定性が著しく向上した。
包括的なアブレーション研究とベンチマークは、プライバシ保護のための協調医療AIの定量的標準を確立し、現実のデプロイメントのための実践的なガイドラインを提供する。
この研究は、医用画像のフェデレーション学習における最先端の進歩を図り、将来の医療におけるプライバシーに準拠したAI採用に必要な方法論の基礎と実証的証拠を確立する。
関連論文リスト
- A Robust Pipeline for Differentially Private Federated Learning on Imbalanced Clinical Data using SMOTETomek and FedProx [0.0]
Federated Learning (FL)は、共同健康研究のための画期的なアプローチである。
FLは、差分プライバシー(DP)と組み合わせて正式なセキュリティ保証を提供する
プライバシーユーティリティフロンティアで最適な運用領域が特定された。
論文 参考訳(メタデータ) (2025-08-06T20:47:50Z) - FedDP: Privacy-preserving method based on federated learning for histopathology image segmentation [2.864354559973703]
本稿では,医用画像データの分散特性とプライバシ感受性について,フェデレート学習フレームワークを用いて検討する。
提案手法であるFedDPは,がん画像データのプライバシーを効果的に保護しつつ,モデルの精度に最小限の影響を与える。
論文 参考訳(メタデータ) (2024-11-07T08:02:58Z) - Privacy-Preserving Heterogeneous Federated Learning for Sensitive Healthcare Data [12.30620268528346]
我々は、AAFV(Abstention-Aware Federated Voting)と呼ばれる新しいフレームワークを提案する。
AAFVは、データのプライバシを同時に保護しながら、共同で機密的に異質なローカルモデルをトレーニングすることができる。
特に,提案手法では,不均一な局所モデルから高信頼投票を選択するために,しきい値に基づく棄権方式を採用している。
論文 参考訳(メタデータ) (2024-06-15T08:43:40Z) - Private, fair and accurate: Training large-scale, privacy-preserving AI models in medical imaging [47.99192239793597]
我々は,AIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して精度と公平性に与える影響を評価した。
我々の研究は、実際の臨床データセットの困難な現実的な状況下では、診断深層学習モデルのプライバシー保護トレーニングは、優れた診断精度と公正さで可能であることを示しています。
論文 参考訳(メタデータ) (2023-02-03T09:49:13Z) - Federated Offline Reinforcement Learning [55.326673977320574]
マルチサイトマルコフ決定プロセスモデルを提案する。
我々は,オフラインRLを対象とした最初のフェデレーション最適化アルゴリズムを設計する。
提案アルゴリズムでは,学習ポリシーの準最適性は,データが分散していないような速度に匹敵する,理論的保証を与える。
論文 参考訳(メタデータ) (2022-06-11T18:03:26Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Anonymizing Data for Privacy-Preserving Federated Learning [3.3673553810697827]
我々は,フェデレートラーニングの文脈において,プライバシを提供するための最初の構文的アプローチを提案する。
当社のアプローチは,プライバシの保護レベルをサポートしながら,実用性やモデルの性能を最大化することを目的としている。
医療領域における2つの重要な課題について,100万人の患者の実世界電子健康データを用いて包括的実証評価を行った。
論文 参考訳(メタデータ) (2020-02-21T02:30:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。