論文の概要: Preserving privacy in domain transfer of medical AI models comes at no
performance costs: The integral role of differential privacy
- arxiv url: http://arxiv.org/abs/2306.06503v1
- Date: Sat, 10 Jun 2023 18:41:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 18:34:40.436217
- Title: Preserving privacy in domain transfer of medical AI models comes at no
performance costs: The integral role of differential privacy
- Title(参考訳): 医療用AIモデルのドメイン転送におけるプライバシ保護は、パフォーマンスコストを伴わない:差分プライバシーの不可欠な役割
- Authors: Soroosh Tayebi Arasteh, Mahshad Lotfinia, Teresa Nolte, Marwin Saehn,
Peter Isfort, Christiane Kuhl, Sven Nebelung, Georgios Kaissis, Daniel Truhn
- Abstract要約: DP-DT(DP-enhanced domain transfer)は, 心肥大, 胸水, 肺炎, 気腫, 健常者の診断に有効であった。
その結果,DP-DTは極めて高いプライバシレベルであっても,非DP-DTと相容れない性能を示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Developing robust and effective artificial intelligence (AI) models in
medicine requires access to large amounts of patient data. The use of AI models
solely trained on large multi-institutional datasets can help with this, yet
the imperative to ensure data privacy remains, particularly as membership
inference risks breaching patient confidentiality. As a proposed remedy, we
advocate for the integration of differential privacy (DP). We specifically
investigate the performance of models trained with DP as compared to models
trained without DP on data from institutions that the model had not seen during
its training (i.e., external validation) - the situation that is reflective of
the clinical use of AI models. By leveraging more than 590,000 chest
radiographs from five institutions, we evaluated the efficacy of DP-enhanced
domain transfer (DP-DT) in diagnosing cardiomegaly, pleural effusion,
pneumonia, atelectasis, and in identifying healthy subjects. We juxtaposed
DP-DT with non-DP-DT and examined diagnostic accuracy and demographic fairness
using the area under the receiver operating characteristic curve (AUC) as the
main metric, as well as accuracy, sensitivity, and specificity. Our results
show that DP-DT, even with exceptionally high privacy levels (epsilon around
1), performs comparably to non-DP-DT (P>0.119 across all domains). Furthermore,
DP-DT led to marginal AUC differences - less than 1% - for nearly all
subgroups, relative to non-DP-DT. Despite consistent evidence suggesting that
DP models induce significant performance degradation for on-domain
applications, we show that off-domain performance is almost not affected.
Therefore, we ardently advocate for the adoption of DP in training diagnostic
medical AI models, given its minimal impact on performance.
- Abstract(参考訳): 医療で堅牢で効果的な人工知能(AI)モデルを開発するには、大量の患者データにアクセスする必要がある。
大規模なマルチ機関データセットにのみトレーニングされたAIモデルを使用することは、これに役立つが、データプライバシを確実に維持するための必須条件は、特に患者の機密性を侵害する会員推測のリスクである。
提案する治療法として,差分プライバシー(DP)の統合を提唱する。
本稿では, DPを使わずにトレーニングしたモデルに対して, トレーニング中に学習したモデル(外的検証など)の性能について, DPを使わずにトレーニングしたモデルと比較し, 臨床応用の反映となる状況について検討する。
5施設の590,000以上の胸部X線写真を用いて, 心肥大, 胸水, 肺炎, 心電図, 健常者の診断におけるDP-DTの有用性を検討した。
dp-dtと非dp-dtを併用し, 主指標としてレシーバー動作特性曲線(auc)下の領域, 精度, 感度, 特異性を用いて, 診断精度, 統計学的公平性を検討した。
その結果,DP-DTは極めて高いプライバシレベル(esilon around 1)であっても,非DP-DT(P>0.119)と同等に機能することがわかった。
さらに,DP-DTは非DP-DTと比較してほぼすべてのサブグループに対して,AUCの差が1%未満であった。
DPモデルがオンドメインアプリケーションに顕著な性能低下をもたらすという一貫した証拠にもかかわらず、オフドメインの性能はほとんど影響しないことを示す。
したがって、パフォーマンスへの影響を最小限に抑えながら、診断医療aiモデルのトレーニングにおけるdpの採用を熱心に提唱する。
関連論文リスト
- Weakly supervised deep learning model with size constraint for prostate cancer detection in multiparametric MRI and generalization to unseen domains [0.90668179713299]
本モデルでは, 完全教師付きベースラインモデルにより, オンパー性能が向上することを示す。
また、未確認データドメインでテストした場合、完全に教師付きモデルと弱い教師付きモデルの両方のパフォーマンス低下も観察する。
論文 参考訳(メタデータ) (2024-11-04T12:24:33Z) - Domain Adaptation of Echocardiography Segmentation Via Reinforcement Learning [4.850478245721347]
我々はRL4Segを紹介した。RL4Segは革新的な強化学習フレームワークで、ターゲットドメインに専門的な注釈付きデータセットを組み込む必要がなくなる。
RL4Segは1万枚の未診断2D心エコー画像のターゲットデータセットを用いて、ターゲットドメインから220名の専門家検証対象のサブセットに対して99%の解剖学的妥当性を達成している。
論文 参考訳(メタデータ) (2024-06-25T19:26:39Z) - Pre-training Differentially Private Models with Limited Public Data [54.943023722114134]
ディファレンシャルプライバシ(DP)は、モデルに提供されるセキュリティの度合いを測定するための重要な手法である。
DPはまだ、最初の事前訓練段階で使用されるデータのかなりの部分を保護することができない。
公共データの10%しか利用しない新しいDP継続事前学習戦略を開発した。
ImageNet-21kのDP精度は41.5%、非DP精度は55.7%、下流タスクのPlaces365とiNaturalist-2021では60.0%である。
論文 参考訳(メタデータ) (2024-02-28T23:26:27Z) - Privacy Constrained Fairness Estimation for Decision Trees [2.9906966931843093]
任意のAIモデルの公平さを測定するには、データセット内の個人の敏感な属性が必要である。
プライバシ・アウェア・フェアネス・オブ・ルール(PAFER)と呼ばれる新しい手法を提案する。
提案手法は,ラプラシアン機構を用いて,データセット内の個人のプライバシーを高い確度で保証しつつ,低い誤差でSPを推定できることを示す。
論文 参考訳(メタデータ) (2023-12-13T14:54:48Z) - Reconciling AI Performance and Data Reconstruction Resilience for
Medical Imaging [52.578054703818125]
人工知能(AI)モデルは、トレーニングデータの情報漏洩に対して脆弱であり、非常に敏感である。
差別化プライバシ(DP)は、定量的なプライバシー予算を設定することで、これらの感受性を回避することを目的としている。
非常に大きなプライバシ予算を使用することで、リコンストラクション攻撃は不可能であり、パフォーマンスの低下は無視可能であることを示す。
論文 参考訳(メタデータ) (2023-12-05T12:21:30Z) - Dual-Reference Source-Free Active Domain Adaptation for Nasopharyngeal
Carcinoma Tumor Segmentation across Multiple Hospitals [9.845637899896365]
鼻咽頭癌(Nasopharyngeal carcinoma, NPC)は頭頸部の悪性腫瘍である。
本稿では,Gross tumor Volume (GTV)セグメンテーションタスクの領域適応を容易にするために,新しい Sourece-Free Active Domain Adaptation (SFADA) フレームワークを提案する。
5つの病院から1057人のNPC患者からなる大規模臨床データセットを収集し,そのアプローチを検証した。
論文 参考訳(メタデータ) (2023-09-23T15:26:27Z) - Private, fair and accurate: Training large-scale, privacy-preserving AI models in medical imaging [47.99192239793597]
我々は,AIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して精度と公平性に与える影響を評価した。
我々の研究は、実際の臨床データセットの困難な現実的な状況下では、診断深層学習モデルのプライバシー保護トレーニングは、優れた診断精度と公正さで可能であることを示しています。
論文 参考訳(メタデータ) (2023-02-03T09:49:13Z) - Advancing COVID-19 Diagnosis with Privacy-Preserving Collaboration in
Artificial Intelligence [79.038671794961]
我々はUCADI(Unified CT-COVID AI Diagnostic Initiative)を立ち上げ、各ホスト機関でAIモデルを分散的にトレーニングし、独立して実行することができる。
本研究は,中国とイギリスに所在する23の病院で採取した3,336例の胸部CT9,573例について検討した。
論文 参考訳(メタデータ) (2021-11-18T00:43:41Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z) - Adversarial Sample Enhanced Domain Adaptation: A Case Study on
Predictive Modeling with Electronic Health Records [57.75125067744978]
ドメイン適応を容易にするデータ拡張手法を提案する。
逆生成したサンプルはドメイン適応時に使用される。
その結果,本手法の有効性とタスクの一般性が確認された。
論文 参考訳(メタデータ) (2021-01-13T03:20:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。