論文の概要: The role of self-supervised pretraining in differentially private medical image analysis
- arxiv url: http://arxiv.org/abs/2601.19618v1
- Date: Tue, 27 Jan 2026 13:50:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.339018
- Title: The role of self-supervised pretraining in differentially private medical image analysis
- Title(参考訳): 個人医療画像分析における自己指導型プレトレーニングの役割
- Authors: Soroosh Tayebi Arasteh, Mina Farajiamiri, Mahshad Lotfinia, Behrus Hinrichs-Puladi, Jonas Bienzeisler, Mohamed Alhaskir, Mirabela Rusu, Christiane Kuhl, Sven Nebelung, Daniel Truhn,
- Abstract要約: 本稿では,医療画像分析のための戦略を大規模に評価する。
我々は,非ドメイン固有教師付きイメージネット,非ドメイン固有自己教師型DINOv3,およびドメイン固有教師付き事前訓練を比較した。
その結果, 医療画像における有用性, 公平性, 一般化の中枢的堅牢性を確立した。
- 参考スコア(独自算出の注目度): 1.43516305354745
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differential privacy (DP) provides formal protection for sensitive data but typically incurs substantial losses in diagnostic performance. Model initialization has emerged as a critical factor in mitigating this degradation, yet the role of modern self-supervised learning under full-model DP remains poorly understood. Here, we present a large-scale evaluation of initialization strategies for differentially private medical image analysis, using chest radiograph classification as a representative benchmark with more than 800,000 images. Using state-of-the-art ConvNeXt models trained with DP-SGD across realistic privacy regimes, we compare non-domain-specific supervised ImageNet initialization, non-domain-specific self-supervised DINOv3 initialization, and domain-specific supervised pretraining on MIMIC-CXR, the largest publicly available chest radiograph dataset. Evaluations are conducted across five external datasets spanning diverse institutions and acquisition settings. We show that DINOv3 initialization consistently improves diagnostic utility relative to ImageNet initialization under DP, but remains inferior to domain-specific supervised pretraining, which achieves performance closest to non-private baselines. We further demonstrate that initialization choice strongly influences demographic fairness, cross-dataset generalization, and robustness to data scale and model capacity under privacy constraints. The results establish initialization strategy as a central determinant of utility, fairness, and generalization in differentially private medical imaging.
- Abstract(参考訳): 差分プライバシー(DP)は、機密データに対して正式な保護を提供するが、通常は診断性能にかなりの損失をもたらす。
モデル初期化は、この劣化を緩和する重要な要因として現れてきたが、フルモデルDPの下での近代的な自己教師型学習の役割は、いまだに理解されていない。
本稿では, 胸部X線写真分類を80万枚以上の画像の代表的なベンチマークとして用いて, 医用画像解析の初期化戦略を大規模に評価する。
DP-SGDで訓練された最先端のConvNeXtモデルを用いて、非ドメイン固有の教師付きイメージネットの初期化、非ドメイン固有のセルフ教師付きDINOv3初期化、およびMIMIC-CXR上でのドメイン固有の教師付きプレトレーニングを比較した。
評価は、さまざまな機関と取得設定にまたがる5つの外部データセットで実施される。
DINOv3初期化は画像ネットの初期化に対するDPの診断効率を一貫して改善するが,非プライベートベースラインに最も近い性能を実現するドメイン固有教師付き事前学習に劣っていることを示す。
さらに、初期化選択が、プライバシー制約下でのデータスケールとモデル容量に対する人口動態の公平性、クロスデータセットの一般化、堅牢性に強く影響を与えることを実証する。
その結果, 医療画像の実用性, 公平性, 一般化の中心的決定因子として初期化戦略を確立した。
関連論文リスト
- On the MIA Vulnerability Gap Between Private GANs and Diffusion Models [51.53790101362898]
GAN(Generative Adversarial Networks)と拡散モデルが高品質な画像合成のための主要なアプローチとして登場している。
差分自己生成モデルが直面するプライバシーリスクの統一的および実証的分析について述べる。
論文 参考訳(メタデータ) (2025-09-03T14:18:22Z) - Cross-Domain Distribution Alignment for Segmentation of Private Unannotated 3D Medical Images [20.206972068340843]
本稿では、この問題を解決するために、新しいソースフリーなUnsupervised Domain Adaptation (UDA) 手法を提案する。
我々のアイデアは、ベースモデルにより、関連するソースドメインの内部的に学習された分布を推定することに基づいている。
我々は,実世界の3D医療データセット上でのSOTA性能を実証した。
論文 参考訳(メタデータ) (2024-10-11T19:28:10Z) - Probabilistic 3D Correspondence Prediction from Sparse Unsegmented Images [1.2179682412409507]
スパース画像データから3次元対応を予測する統一モデルであるSPI-CorrNetを提案する。
LGE MRI左房データセットとAbdomen CT-1K肝データセットを用いた実験により,スパース画像駆動SSMの精度とロバスト性の向上が示された。
論文 参考訳(メタデータ) (2024-07-02T03:56:20Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Domain Generalization with Adversarial Intensity Attack for Medical
Image Segmentation [27.49427483473792]
実世界のシナリオでは、トレーニング中に露出していない新しいドメインや異なるドメインのデータに遭遇することが一般的である。
ドメイン一般化(Domain Generalization, DG)は、モデルがこれまで見つからなかったドメインからのデータを扱うことを可能にする、有望な方向である。
本稿では,敵対的トレーニングを活用して無限のスタイルでトレーニングデータを生成する,AdverIN(Adversarial Intensity Attack)と呼ばれる新しいDG手法を提案する。
論文 参考訳(メタデータ) (2023-04-05T19:40:51Z) - Private, fair and accurate: Training large-scale, privacy-preserving AI models in medical imaging [47.99192239793597]
我々は,AIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して精度と公平性に与える影響を評価した。
我々の研究は、実際の臨床データセットの困難な現実的な状況下では、診断深層学習モデルのプライバシー保護トレーニングは、優れた診断精度と公正さで可能であることを示しています。
論文 参考訳(メタデータ) (2023-02-03T09:49:13Z) - Prior Knowledge-Guided Attention in Self-Supervised Vision Transformers [79.60022233109397]
本研究では、未ラベル画像データセットにおける一貫した空間的・意味的構造を利用するフレームワークである空間的事前注意(SPAN)を提案する。
SPANは、アテンションマスクを別個のトランスフォーマーヘッドから正規化し、セマンティック領域の様々な先導に従う。
その結果,アテンションマスクは,ドメインに依存しない事前学習から得られるマスクよりも解釈可能であることが判明した。
論文 参考訳(メタデータ) (2022-09-07T02:30:36Z) - In-Bed Human Pose Estimation from Unseen and Privacy-Preserving Image
Domains [22.92165116962952]
ベッド内の人間の姿勢推定は、医療状況の評価において潜在的な価値を持つ重要な健康関連指標を提供する。
本稿では,マルチモーダル条件変分オートエンコーダ(MC-VAE)を提案する。
本研究は, 身体位置が利用可能なモダリティから効果的に認識できることを示し, ベースラインモデルと同等の結果が得られることを示した。
論文 参考訳(メタデータ) (2021-11-30T04:56:16Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z) - Self-Adaptive Transfer Learning for Multicenter Glaucoma Classification
in Fundus Retina Images [9.826586293806837]
マルチセンタデータセット間のドメインギャップを埋めるための自己適応型トランスファーラーニング(SATL)戦略を提案する。
具体的には、ソースドメイン上で事前訓練されたDLモデルのエンコーダを使用して、再構成モデルのエンコーダを初期化する。
以上の結果から,SATL法はプライベートおよび2つの公共緑内障診断データセット間の領域適応作業に有効であることが示唆された。
論文 参考訳(メタデータ) (2021-05-07T05:20:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。