論文の概要: TrustFed: Enabling Trustworthy Medical AI under Data Privacy Constraints
- arxiv url: http://arxiv.org/abs/2603.21656v1
- Date: Mon, 23 Mar 2026 07:34:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-24 19:11:39.543516
- Title: TrustFed: Enabling Trustworthy Medical AI under Data Privacy Constraints
- Title(参考訳): TrustFed:データプライバシー制約下で信頼できる医療AIを実現する
- Authors: Vagish Kumar, Syed Bahauddin Alam, Souvik Chakraborty,
- Abstract要約: フェデレーション学習は、患者の生データを共有することなく、プライバシ保護、複数施設でのトレーニングを可能にする。
TrustFedは、不均一で不均衡な医療データの下で、配布不要で有限サンプルのカバレッジ保証を提供する。
医用画像における不確実性を考慮したフェデレーション学習の包括的評価を行う。
- 参考スコア(独自算出の注目度): 2.9567293946666173
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Protecting patient privacy remains a fundamental barrier to scaling machine learning across healthcare institutions, where centralizing sensitive data is often infeasible due to ethical, legal, and regulatory constraints. Federated learning offers a promising alternative by enabling privacy-preserving, multi-institutional training without sharing raw patient data; however, real-world deployments face severe challenges from data heterogeneity, site-specific biases, and class imbalance, which degrade predictive reliability and render existing uncertainty quantification methods ineffective. Here, we present TrustFed, a federated uncertainty quantification framework that provides distribution-free, finite-sample coverage guarantees under heterogeneous and imbalanced healthcare data, without requiring centralized access. TrustFed introduces a representation-aware client assignment mechanism that leverages internal model representations to enable effective calibration across institutions, along with a soft-nearest threshold aggregation strategy that mitigates assignment uncertainty while producing compact and reliable prediction sets. Using over 430,000 medical images across six clinically distinct imaging modalities, we conduct one of the most comprehensive evaluations of uncertainty-aware federated learning in medical imaging, demonstrating robust coverage guarantees across datasets with diverse class cardinalities and imbalance regimes. By validating TrustFed at this scale and breadth, our study advances uncertainty-aware federated learning from proof-of-concept toward clinically meaningful, modality-agnostic deployment, positioning statistically guaranteed uncertainty as a core requirement for next-generation healthcare AI systems.
- Abstract(参考訳): 患者のプライバシ保護は、倫理的、法的、規制上の制約により、機密データの集中化が不可能な医療機関全体にわたって機械学習をスケールする上で、依然として基本的な障壁である。
フェデレーテッド・ラーニング(Federated Learning)は、患者の生データを共有することなく、プライバシーを保護し、複数の制度的なトレーニングを可能にすることで、有望な代替手段を提供する。
ここでは、集中的なアクセスを必要とせず、不均一で不均衡な医療データの下で、分散のない有限サンプルカバレッジ保証を提供する、フェデレートされた不確実性定量化フレームワークであるTrustFedを提案する。
TrustFedは、内部モデル表現を活用する表現対応クライアント割り当て機構を導入し、組織間の効果的なキャリブレーションを可能にするとともに、コンパクトで信頼性の高い予測セットを生成しながら、割り当ての不確実性を緩和するソフトアレストしきい値決定戦略を導入している。
6つの臨床的に異なる画像モダリティにわたる43万以上の医療画像を用いて、医療画像における不確実性を認識したフェデレーション学習の包括的評価を行い、多様な分類基準と不均衡な体制を持つデータセット間の堅牢なカバレッジ保証を実証した。
このスケールと広さでTrustFedを検証することで、私たちの研究は、概念実証から臨床的に意味のあるモダリティ非依存的な展開へと、不確実性を考慮したフェデレーション学習を前進させ、統計的に保証された不確実性を次世代医療AIシステムの中核的な要件として位置づける。
関連論文リスト
- FedAgain: A Trust-Based and Robust Federated Learning Strategy for an Automated Kidney Stone Identification in Ureteroscopy [6.025561073248826]
本稿では,信頼に基づくフェデレートラーニング(フェデレートラーニング)戦略であるFedAgainを紹介する。
このフレームワークは、データプライバシを保持しながら、複数の機関にわたる協調モデルのトレーニングを可能にし、現実の条件下で安定した収束を促進する。
論文 参考訳(メタデータ) (2026-03-19T22:40:37Z) - Towards Reliable Medical LLMs: Benchmarking and Enhancing Confidence Estimation of Large Language Models in Medical Consultation [97.36081721024728]
本稿では,現実的な医療相談におけるマルチターンインタラクションの信頼性を評価するための最初のベンチマークを提案する。
本ベンチマークでは,3種類の医療データを統合し,診断を行う。
本稿では,エビデンスを基盤とした言語自己評価フレームワークであるMedConfを紹介する。
論文 参考訳(メタデータ) (2026-01-22T04:51:39Z) - A Robust Pipeline for Differentially Private Federated Learning on Imbalanced Clinical Data using SMOTETomek and FedProx [0.0]
Federated Learning (FL)は、共同健康研究のための画期的なアプローチである。
FLは、差分プライバシー(DP)と組み合わせて正式なセキュリティ保証を提供する
プライバシーユーティリティフロンティアで最適な運用領域が特定された。
論文 参考訳(メタデータ) (2025-08-06T20:47:50Z) - Beyond Benchmarks: Dynamic, Automatic And Systematic Red-Teaming Agents For Trustworthy Medical Language Models [87.66870367661342]
大規模言語モデル(LLM)は、医療におけるAIアプリケーションで使用される。
LLMを継続的にストレステストするレッドチームフレームワークは、4つのセーフティクリティカルなドメインで重大な弱点を明らかにすることができる。
敵エージェントのスイートは、自律的に変化するテストケースに適用され、安全でないトリガー戦略を特定し、評価する。
私たちのフレームワークは、進化可能でスケーラブルで信頼性の高い、次世代の医療AIのセーフガードを提供します。
論文 参考訳(メタデータ) (2025-07-30T08:44:22Z) - Certifiably Byzantine-Robust Federated Conformal Prediction [49.23374238798428]
本稿では,悪意のあるクライアントに対する堅牢な共形予測を行う新しいフレームワークRob-FCPを提案する。
我々は、さまざまなビザンチン攻撃の下で、悪意のあるクライアントの多様な割合に対するRob-FCPの堅牢性を実証的に実証した。
論文 参考訳(メタデータ) (2024-06-04T04:43:30Z) - Towards Reliable Medical Image Segmentation by Modeling Evidential Calibrated Uncertainty [57.023423137202485]
医用画像のセグメンテーションの信頼性に関する懸念が臨床医の間で続いている。
本稿では,医療画像セグメンテーションネットワークにシームレスに統合可能な,実装が容易な基礎モデルであるDEviSを紹介する。
主観的論理理論を活用することで、医用画像分割の確率と不確実性を明示的にモデル化する。
論文 参考訳(メタデータ) (2023-01-01T05:02:46Z) - Distribution-Free Federated Learning with Conformal Predictions [0.0]
フェデレートラーニングは、患者のプライバシーを維持しながら、別々の機関のデータセットを活用することを目的としている。
キャリブレーションの低さと解釈可能性の欠如は、フェデレートされたモデルの臨床実践への広範な展開を妨げる可能性がある。
本稿では,適応型コンフォメーション・フレームワークを連携学習に組み込むことにより,これらの課題に対処することを提案する。
論文 参考訳(メタデータ) (2021-10-14T18:41:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。