論文の概要: Differential Privacy for Deep Learning in Medicine
- arxiv url: http://arxiv.org/abs/2506.00660v1
- Date: Sat, 31 May 2025 18:03:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:33.470783
- Title: Differential Privacy for Deep Learning in Medicine
- Title(参考訳): 医学における深層学習のための差別化プライバシ
- Authors: Marziyeh Mohammadi, Mohsen Vejdanihemmat, Mahshad Lotfinia, Mirabela Rusu, Daniel Truhn, Andreas Maier, Soroosh Tayebi Arasteh,
- Abstract要約: ディファレンシャルプライバシ(DP)は、医学的深層学習(DL)における機密データ保護の鍵となる技術である
臨床モデルがデータに依存しやすくなるにつれ、プライバシーと実用性と公正性とのバランスが重要な課題となっている。
医療用DLへのDP適用の最近の進展を概観する。
- 参考スコア(独自算出の注目度): 3.9080478252129573
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differential privacy (DP) is a key technique for protecting sensitive patient data in medical deep learning (DL). As clinical models grow more data-dependent, balancing privacy with utility and fairness has become a critical challenge. This scoping review synthesizes recent developments in applying DP to medical DL, with a particular focus on DP-SGD and alternative mechanisms across centralized and federated settings. Using a structured search strategy, we identified 74 studies published up to March 2025. Our analysis spans diverse data modalities, training setups, and downstream tasks, and highlights the tradeoffs between privacy guarantees, model accuracy, and subgroup fairness. We find that while DP-especially at strong privacy budgets-can preserve performance in well-structured imaging tasks, severe degradation often occurs under strict privacy, particularly in underrepresented or complex modalities. Furthermore, privacy-induced performance gaps disproportionately affect demographic subgroups, with fairness impacts varying by data type and task. A small subset of studies explicitly addresses these tradeoffs through subgroup analysis or fairness metrics, but most omit them entirely. Beyond DP-SGD, emerging approaches leverage alternative mechanisms, generative models, and hybrid federated designs, though reporting remains inconsistent. We conclude by outlining key gaps in fairness auditing, standardization, and evaluation protocols, offering guidance for future work toward equitable and clinically robust privacy-preserving DL systems in medicine.
- Abstract(参考訳): ディファレンシャルプライバシ(DP)は、医学的深層学習(DL)において、センシティブな患者データを保護するための鍵となる技術である。
臨床モデルがデータに依存しやすくなるにつれ、プライバシーと実用性と公正性とのバランスが重要な課題となっている。
本研究は, DP-SGD, DP-SGD, 代替メカニズムを中心に, 医療用DLへのDP適用の最近の進展を概観するものである。
構造化検索戦略を用いて,2025年3月までに公表された74の論文を同定した。
私たちの分析は、さまざまなデータモダリティ、トレーニング設定、下流タスクにまたがっており、プライバシ保証、モデルの正確性、サブグループフェアネスのトレードオフを強調しています。
DP-特に強力なプライバシ予算では、よく構造化された画像処理タスクのパフォーマンスを維持することができるが、厳格なプライバシ、特に表現不足や複雑なモダリティの下で深刻な劣化が発生することが多い。
さらに、プライバシによって引き起こされるパフォーマンスギャップは、データタイプやタスクによって変動する公平性の影響で、人口集団のサブグループに不均等に影響を及ぼす。
少数の研究は、サブグループ分析や公正度測定を通じてこれらのトレードオフに明示的に対処するが、ほとんどの研究はそれらを完全に省略する。
DP-SGD以外にも、新たなアプローチでは代替メカニズム、生成モデル、ハイブリッドフェデレーションデザインが活用されているが、報告には矛盾がある。
医療における公平性監査,標準化,評価プロトコルの重要なギャップを概説し,公平かつ臨床的に堅牢なプライバシー保護型DLシステムに向けた今後の取り組みの指針を提供する。
関連論文リスト
- Differential privacy enables fair and accurate AI-based analysis of speech disorders while protecting patient data [10.6135892856374]
本研究は,病的音声データにおける差分プライバシーを初めて研究したものである。
プライバシ、診断精度、公正性のトレードオフに焦点を当てている。
以上の結果から,DPは音声障害検出におけるプライバシーと利便性のバランスがとれることが明らかとなった。
論文 参考訳(メタデータ) (2024-09-27T18:25:54Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Improving Multiple Sclerosis Lesion Segmentation Across Clinical Sites:
A Federated Learning Approach with Noise-Resilient Training [75.40980802817349]
深層学習モデルは、自動的にMS病変を分節する約束を示しているが、正確な注釈付きデータの不足は、この分野の進歩を妨げている。
我々は,MS病変の不均衡分布とファジィ境界を考慮したDecoupled Hard Label Correction(DHLC)戦略を導入する。
また,集約型中央モデルを利用したCELC(Centrally Enhanced Label Correction)戦略も導入した。
論文 参考訳(メタデータ) (2023-08-31T00:36:10Z) - Private, fair and accurate: Training large-scale, privacy-preserving AI models in medical imaging [47.99192239793597]
我々は,AIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して精度と公平性に与える影響を評価した。
我々の研究は、実際の臨床データセットの困難な現実的な状況下では、診断深層学習モデルのプライバシー保護トレーニングは、優れた診断精度と公正さで可能であることを示しています。
論文 参考訳(メタデータ) (2023-02-03T09:49:13Z) - Personalized Federated Learning with Clustering: Non-IID Heart Rate
Variability Data Application [0.1465840097113565]
本稿では,階層的クラスタリングに基づくFLプロセスであるPersonalized Federated Cluster Modelsを提案し,心拍変動からうつ病の重症度を予測する。
クライアントがよりパーソナライズされたモデルを受けられるようにすることで、非IIDデータによる問題に対処し、重大度予測の精度が向上することを示す。
論文 参考訳(メタデータ) (2021-08-04T08:24:23Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Chasing Your Long Tails: Differentially Private Prediction in Health
Care Settings [34.26542589537452]
差分プライベート(DP)学習の方法は、プライバシ保証付きモデルを学習するための汎用的なアプローチを提供する。
DP学習の現代的な手法は、情報に過度にユニークなと判断される情報を検閲するメカニズムを通じて、プライバシーを確保する。
我々はDP学習に最先端の手法を用いて,臨床予測タスクにおけるプライバシ保護モデルを訓練する。
論文 参考訳(メタデータ) (2020-10-13T19:56:37Z) - GS-WGAN: A Gradient-Sanitized Approach for Learning Differentially
Private Generators [74.16405337436213]
我々は、GS-WGAN(Gradient-sanitized Wasserstein Generative Adrial Networks)を提案する。
GS-WGANは、厳格なプライバシー保証を備えた機密データの衛生的な形式での公開を可能にする。
このアプローチは、複数のメトリクスにわたる最先端のアプローチよりも一貫して優れています。
論文 参考訳(メタデータ) (2020-06-15T10:01:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。