論文の概要: Private, fair and accurate: Training large-scale, privacy-preserving AI
models in radiology
- arxiv url: http://arxiv.org/abs/2302.01622v1
- Date: Fri, 3 Feb 2023 09:49:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-06 16:44:39.836927
- Title: Private, fair and accurate: Training large-scale, privacy-preserving AI
models in radiology
- Title(参考訳): プライベートで公正で正確:放射線学における大規模でプライバシー保護のAIモデルを訓練する
- Authors: Soroosh Tayebi Arasteh, Alexander Ziller, Christiane Kuhl, Marcus
Makowski, Sven Nebelung, Rickmer Braren, Daniel Rueckert, Daniel Truhn,
Georgios Kaissis
- Abstract要約: プライバシ保護のための金の標準は、モデルのトレーニングに差分プライバシー(DP)を導入することである。
本研究の目的は,胸部X線写真診断のためのAIモデルのプライバシ保護トレーニングが,高精度かつ公平に可能であることを示すことである。
- 参考スコア(独自算出の注目度): 53.481214477911095
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence (AI) models are increasingly used in the medical
domain. However, as medical data is highly sensitive, special precautions to
ensure the protection of said data are required. The gold standard for privacy
preservation is the introduction of differential privacy (DP) to model
training. However, prior work has shown that DP has negative implications on
model accuracy and fairness. Therefore, the purpose of this study is to
demonstrate that the privacy-preserving training of AI models for chest
radiograph diagnosis is possible with high accuracy and fairness compared to
non-private training. N=193,311 high quality clinical chest radiographs were
retrospectively collected and manually labeled by experienced radiologists, who
assigned one or more of the following diagnoses: cardiomegaly, congestion,
pleural effusion, pneumonic infiltration and atelectasis, to each side (where
applicable). The non-private AI models were compared with privacy-preserving
(DP) models with respect to privacy-utility trade-offs (measured as area under
the receiver-operator-characteristic curve (AUROC)), and privacy-fairness
trade-offs (measured as Pearson-R or Statistical Parity Difference). The
non-private AI model achieved an average AUROC score of 0.90 over all labels,
whereas the DP AI model with a privacy budget of epsilon=7.89 resulted in an
AUROC of 0.87, i.e., a mere 2.6% performance decrease compared to non-private
training. The privacy-preserving training of diagnostic AI models can achieve
high performance with a small penalty on model accuracy and does not amplify
discrimination against age, sex or co-morbidity. We thus encourage
practitioners to integrate state-of-the-art privacy-preserving techniques into
medical AI model development.
- Abstract(参考訳): 人工知能(AI)モデルは、医療分野でますます使われている。
しかし、医療データの感度が高いため、そのデータの保護を確実にするための特別対策が必要である。
プライバシー保護の金本位制は、モデルトレーニングに差分プライバシー(dp)を導入することである。
しかし、過去の研究では、DPがモデル精度と公平性に悪影響を及ぼすことが示されている。
そこで本研究では,胸部X線画像診断のためのAIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して高い精度と公平性で可能であることを示す。
n=193,311の高品質胸部x線写真が回顧的に収集され,経験豊富な放射線科医によって手作業で分類された。
プライベートなAIモデルはプライバシ保護(DP)モデルと比較され、プライバシユーティリティトレードオフ(AUROC(Receer-operator-characteristic curve)の下で測定された領域)、プライバシとフェアネスのトレードオフ(ピアソン-Rまたは統計パリティ差)が測定された。
プライベートでないAIモデルはすべてのラベルに対して平均0.90のAUROCスコアを達成したが、プライバシー予算が7.89のDP AIモデルはAUROCの0.87、すなわち、プライベートでないトレーニングに比べてパフォーマンスがわずか2.6%低下した。
診断AIモデルのプライバシ保護トレーニングは、モデルの精度に小さなペナルティを伴って高いパフォーマンスを達成することができ、年齢、性別、または共道徳に対する差別を増幅しない。
したがって、医療aiモデル開発に最先端のプライバシー保護技術を統合することを実践者に推奨する。
関連論文リスト
- Unlocking Accuracy and Fairness in Differentially Private Image
Classification [43.53494043189235]
差別化プライバシ(DP)は、プライバシ保護トレーニングのための金の標準フレームワークと考えられている。
DPを微調整した事前学習基礎モデルでは,非私的分類器と同様の精度が得られることを示す。
論文 参考訳(メタデータ) (2023-08-21T17:42:33Z) - Preserving privacy in domain transfer of medical AI models comes at no
performance costs: The integral role of differential privacy [5.025818976218807]
DP-DT(DP-enhanced domain transfer)は, 心肥大, 胸水, 肺炎, 気腫, 健常者の診断に有効であった。
その結果,DP-DTは極めて高いプライバシレベルであっても,非DP-DTと相容れない性能を示した。
論文 参考訳(メタデータ) (2023-06-10T18:41:50Z) - Privacy-Preserving Deep Learning Model for Covid-19 Disease Detection [3.351714665243138]
患者個人の情報を確保するために,差分私的深層学習モデルを提案する。
正確性は、トレーニング可能なレイヤの変更、プライバシ損失、各サンプルの情報制限によって注目される。
論文 参考訳(メタデータ) (2022-09-07T06:15:02Z) - Assessing Privacy Leakage in Synthetic 3-D PET Imaging using Transversal
GAN [2.0764611233067534]
腫瘍マスクに装着した頭頸部PET画像を用いた3次元生成モデルTransversal GAN (TrGAN) を症例として紹介した。
TrGANの識別器は攻撃に対して脆弱であり、攻撃者がどのサンプルをほぼ完璧に訓練に用いたかを識別できることを示す。
これは、TrGANジェネレータは、識別器ではないが、最小限のプライバシーリスクで合成3DPETデータを共有するために使用される可能性があることを示唆している。
論文 参考訳(メタデータ) (2022-06-13T20:02:32Z) - When Accuracy Meets Privacy: Two-Stage Federated Transfer Learning
Framework in Classification of Medical Images on Limited Data: A COVID-19
Case Study [77.34726150561087]
新型コロナウイルスのパンデミックが急速に広がり、世界の医療資源が不足している。
CNNは医療画像の解析に広く利用され、検証されている。
論文 参考訳(メタデータ) (2022-03-24T02:09:41Z) - Practical Challenges in Differentially-Private Federated Survival
Analysis of Medical Data [57.19441629270029]
本稿では,ニューラルネットワークの本質的特性を活用し,生存分析モデルの訓練過程を関連づける。
小さな医療データセットと少数のデータセンターの現実的な設定では、このノイズはモデルを収束させるのが難しくなります。
DPFed-post は,私的フェデレート学習方式に後処理の段階を追加する。
論文 参考訳(メタデータ) (2022-02-08T10:03:24Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Chasing Your Long Tails: Differentially Private Prediction in Health
Care Settings [34.26542589537452]
差分プライベート(DP)学習の方法は、プライバシ保証付きモデルを学習するための汎用的なアプローチを提供する。
DP学習の現代的な手法は、情報に過度にユニークなと判断される情報を検閲するメカニズムを通じて、プライバシーを確保する。
我々はDP学習に最先端の手法を用いて,臨床予測タスクにおけるプライバシ保護モデルを訓練する。
論文 参考訳(メタデータ) (2020-10-13T19:56:37Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。