論文の概要: Private, fair and accurate: Training large-scale, privacy-preserving AI
models in radiology
- arxiv url: http://arxiv.org/abs/2302.01622v1
- Date: Fri, 3 Feb 2023 09:49:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-06 16:44:39.836927
- Title: Private, fair and accurate: Training large-scale, privacy-preserving AI
models in radiology
- Title(参考訳): プライベートで公正で正確:放射線学における大規模でプライバシー保護のAIモデルを訓練する
- Authors: Soroosh Tayebi Arasteh, Alexander Ziller, Christiane Kuhl, Marcus
Makowski, Sven Nebelung, Rickmer Braren, Daniel Rueckert, Daniel Truhn,
Georgios Kaissis
- Abstract要約: プライバシ保護のための金の標準は、モデルのトレーニングに差分プライバシー(DP)を導入することである。
本研究の目的は,胸部X線写真診断のためのAIモデルのプライバシ保護トレーニングが,高精度かつ公平に可能であることを示すことである。
- 参考スコア(独自算出の注目度): 53.481214477911095
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence (AI) models are increasingly used in the medical
domain. However, as medical data is highly sensitive, special precautions to
ensure the protection of said data are required. The gold standard for privacy
preservation is the introduction of differential privacy (DP) to model
training. However, prior work has shown that DP has negative implications on
model accuracy and fairness. Therefore, the purpose of this study is to
demonstrate that the privacy-preserving training of AI models for chest
radiograph diagnosis is possible with high accuracy and fairness compared to
non-private training. N=193,311 high quality clinical chest radiographs were
retrospectively collected and manually labeled by experienced radiologists, who
assigned one or more of the following diagnoses: cardiomegaly, congestion,
pleural effusion, pneumonic infiltration and atelectasis, to each side (where
applicable). The non-private AI models were compared with privacy-preserving
(DP) models with respect to privacy-utility trade-offs (measured as area under
the receiver-operator-characteristic curve (AUROC)), and privacy-fairness
trade-offs (measured as Pearson-R or Statistical Parity Difference). The
non-private AI model achieved an average AUROC score of 0.90 over all labels,
whereas the DP AI model with a privacy budget of epsilon=7.89 resulted in an
AUROC of 0.87, i.e., a mere 2.6% performance decrease compared to non-private
training. The privacy-preserving training of diagnostic AI models can achieve
high performance with a small penalty on model accuracy and does not amplify
discrimination against age, sex or co-morbidity. We thus encourage
practitioners to integrate state-of-the-art privacy-preserving techniques into
medical AI model development.
- Abstract(参考訳): 人工知能(AI)モデルは、医療分野でますます使われている。
しかし、医療データの感度が高いため、そのデータの保護を確実にするための特別対策が必要である。
プライバシー保護の金本位制は、モデルトレーニングに差分プライバシー(dp)を導入することである。
しかし、過去の研究では、DPがモデル精度と公平性に悪影響を及ぼすことが示されている。
そこで本研究では,胸部X線画像診断のためのAIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して高い精度と公平性で可能であることを示す。
n=193,311の高品質胸部x線写真が回顧的に収集され,経験豊富な放射線科医によって手作業で分類された。
プライベートなAIモデルはプライバシ保護(DP)モデルと比較され、プライバシユーティリティトレードオフ(AUROC(Receer-operator-characteristic curve)の下で測定された領域)、プライバシとフェアネスのトレードオフ(ピアソン-Rまたは統計パリティ差)が測定された。
プライベートでないAIモデルはすべてのラベルに対して平均0.90のAUROCスコアを達成したが、プライバシー予算が7.89のDP AIモデルはAUROCの0.87、すなわち、プライベートでないトレーニングに比べてパフォーマンスがわずか2.6%低下した。
診断AIモデルのプライバシ保護トレーニングは、モデルの精度に小さなペナルティを伴って高いパフォーマンスを達成することができ、年齢、性別、または共道徳に対する差別を増幅しない。
したがって、医療aiモデル開発に最先端のプライバシー保護技術を統合することを実践者に推奨する。
関連論文リスト
- FedDP: Privacy-preserving method based on federated learning for histopathology image segmentation [2.864354559973703]
本稿では,医用画像データの分散特性とプライバシ感受性について,フェデレート学習フレームワークを用いて検討する。
提案手法であるFedDPは,がん画像データのプライバシーを効果的に保護しつつ,モデルの精度に最小限の影響を与える。
論文 参考訳(メタデータ) (2024-11-07T08:02:58Z) - On Differentially Private 3D Medical Image Synthesis with Controllable Latent Diffusion Models [5.966954237899151]
本研究は, 短軸視における3次元心筋MRI像の課題に対処するものである。
医用属性に条件付き合成画像を生成する潜在拡散モデルを提案する。
UK Biobankデータセットに差分プライバシでモデルを微調整します。
論文 参考訳(メタデータ) (2024-07-23T11:49:58Z) - Enhancing the Utility of Privacy-Preserving Cancer Classification using Synthetic Data [5.448470199971472]
深層学習は、乳がん検出において放射線科医を補助する大きな可能性を秘めている。
最適なモデルパフォーマンスを達成することは、データの可用性と共有の制限によって妨げられます。
従来のディープラーニングモデルでは、センシティブなトレーニング情報を不注意にリークすることができる。
この研究は、プライバシー保護のディープラーニング技術の有用性の定量化を探求するこれらの課題に対処する。
論文 参考訳(メタデータ) (2024-07-17T15:52:45Z) - Unlocking Accuracy and Fairness in Differentially Private Image
Classification [43.53494043189235]
差別化プライバシ(DP)は、プライバシ保護トレーニングのための金の標準フレームワークと考えられている。
DPを微調整した事前学習基礎モデルでは,非私的分類器と同様の精度が得られることを示す。
論文 参考訳(メタデータ) (2023-08-21T17:42:33Z) - When Accuracy Meets Privacy: Two-Stage Federated Transfer Learning
Framework in Classification of Medical Images on Limited Data: A COVID-19
Case Study [77.34726150561087]
新型コロナウイルスのパンデミックが急速に広がり、世界の医療資源が不足している。
CNNは医療画像の解析に広く利用され、検証されている。
論文 参考訳(メタデータ) (2022-03-24T02:09:41Z) - Practical Challenges in Differentially-Private Federated Survival
Analysis of Medical Data [57.19441629270029]
本稿では,ニューラルネットワークの本質的特性を活用し,生存分析モデルの訓練過程を関連づける。
小さな医療データセットと少数のデータセンターの現実的な設定では、このノイズはモデルを収束させるのが難しくなります。
DPFed-post は,私的フェデレート学習方式に後処理の段階を追加する。
論文 参考訳(メタデータ) (2022-02-08T10:03:24Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Chasing Your Long Tails: Differentially Private Prediction in Health
Care Settings [34.26542589537452]
差分プライベート(DP)学習の方法は、プライバシ保証付きモデルを学習するための汎用的なアプローチを提供する。
DP学習の現代的な手法は、情報に過度にユニークなと判断される情報を検閲するメカニズムを通じて、プライバシーを確保する。
我々はDP学習に最先端の手法を用いて,臨床予測タスクにおけるプライバシ保護モデルを訓練する。
論文 参考訳(メタデータ) (2020-10-13T19:56:37Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。