論文の概要: On Differentially Private 3D Medical Image Synthesis with Controllable Latent Diffusion Models
- arxiv url: http://arxiv.org/abs/2407.16405v1
- Date: Tue, 23 Jul 2024 11:49:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-24 17:26:03.793559
- Title: On Differentially Private 3D Medical Image Synthesis with Controllable Latent Diffusion Models
- Title(参考訳): 制御可能な潜伏拡散モデルを用いた微分プライベート3次元医用画像合成について
- Authors: Deniz Daum, Richard Osuala, Anneliese Riess, Georgios Kaissis, Julia A. Schnabel, Maxime Di Folco,
- Abstract要約: 本研究は, 短軸視における3次元心筋MRI像の課題に対処するものである。
医用属性に条件付き合成画像を生成する潜在拡散モデルを提案する。
UK Biobankデータセットに差分プライバシでモデルを微調整します。
- 参考スコア(独自算出の注目度): 5.966954237899151
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Generally, the small size of public medical imaging datasets coupled with stringent privacy concerns, hampers the advancement of data-hungry deep learning models in medical imaging. This study addresses these challenges for 3D cardiac MRI images in the short-axis view. We propose Latent Diffusion Models that generate synthetic images conditioned on medical attributes, while ensuring patient privacy through differentially private model training. To our knowledge, this is the first work to apply and quantify differential privacy in 3D medical image generation. We pre-train our models on public data and finetune them with differential privacy on the UK Biobank dataset. Our experiments reveal that pre-training significantly improves model performance, achieving a Fr\'echet Inception Distance (FID) of 26.77 at $\epsilon=10$, compared to 92.52 for models without pre-training. Additionally, we explore the trade-off between privacy constraints and image quality, investigating how tighter privacy budgets affect output controllability and may lead to degraded performance. Our results demonstrate that proper consideration during training with differential privacy can substantially improve the quality of synthetic cardiac MRI images, but there are still notable challenges in achieving consistent medical realism.
- Abstract(参考訳): 一般に、公開医療画像データセットの小さなサイズとプライバシーの懸念が組み合わさって、医療画像の深層学習モデルの進歩を妨げている。
本研究は, 短軸視における3次元心筋MRI像の課題に対処するものである。
本稿では,医療属性に条件付き合成画像を生成する潜在拡散モデルを提案するとともに,差分プライベートモデルトレーニングによる患者のプライバシの確保を図る。
われわれの知る限り、3D画像生成における差分プライバシーの適用と定量化は、これが初めてである。
当社のモデルを公開データで事前トレーニングし、英国バイオバンクのデータセットに差分プライバシーを付与します。
プレトレーニングでは,Fr'echet Inception Distance (FID) が26.77ドル ($\epsilon=10$) であるのに対し,プレトレーニングなしのモデルでは92.52ドルであった。
さらに、プライバシー制約と画質のトレードオフについて検討し、より厳密なプライバシー予算が出力制御性にどのように影響し、性能低下につながるかを調査した。
以上の結果から, 差分プライバシによるトレーニング中の適切な考慮は, 人工心臓MRI画像の品質を著しく向上させるが, 一貫性のある医療リアリズムを実現する上では, 依然として顕著な課題があることが示された。
関連論文リスト
- FedDP: Privacy-preserving method based on federated learning for histopathology image segmentation [2.864354559973703]
本稿では,医用画像データの分散特性とプライバシ感受性について,フェデレート学習フレームワークを用いて検討する。
提案手法であるFedDPは,がん画像データのプライバシーを効果的に保護しつつ,モデルの精度に最小限の影響を与える。
論文 参考訳(メタデータ) (2024-11-07T08:02:58Z) - Privacy Preserving Federated Learning in Medical Imaging with Uncertainty Estimation [15.63535423357971]
機械学習(ML)と人工知能(AI)は、特に医療において顕著な進歩を加速している。医療画像では、MLモデルは、疾患の診断、治療計画、治療後のモニタリングを改善するという約束を持っている。
患者のデータを取り巻くプライバシーに関する懸念は、正確で堅牢で一般化可能なモデルの開発とトレーニングに必要な大規模なトレーニングデータセットの組み立てを妨げる。
フェデレートラーニング(FL)は魅力的なソリューションとして登場し、データ(医療画像など)ではなくモデルトレーニング情報(段階的)を共有することで、組織がMLモデルのトレーニングに協力できるようにする。
論文 参考訳(メタデータ) (2024-06-18T17:35:52Z) - OpticalDR: A Deep Optical Imaging Model for Privacy-Protective
Depression Recognition [66.91236298878383]
抑うつ認識(DR)は、特にプライバシー上の懸念の文脈において、大きな課題となる。
我々は,疾患関連特徴を保持しつつ,撮像した顔画像の識別情報を消去する新しいイメージングシステムを設計した。
正確なDRに必要な本態性疾患の特徴を保ちながら、アイデンティティ情報の回復には不可逆である。
論文 参考訳(メタデータ) (2024-02-29T01:20:29Z) - EMIT-Diff: Enhancing Medical Image Segmentation via Text-Guided
Diffusion Model [4.057796755073023]
EMIT-Diffと呼ばれる医用画像合成のための制御可能な拡散モデルを開発した。
近年の拡散確率モデルを利用して、現実的で多様な合成医用画像データを生成する。
提案手法では, 合成試料が医療上の制約に適合することを確実にする。
論文 参考訳(メタデータ) (2023-10-19T16:18:02Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Conditional Diffusion Models for Semantic 3D Brain MRI Synthesis [0.0]
Med-DDPMは3次元意味脳MRI合成のための拡散モデルである。
セマンティックコンディショニングを統合することで、データの不足とプライバシの問題に効果的に取り組む。
視覚的忠実度の高い多様なコヒーレントな画像を生成する。
論文 参考訳(メタデータ) (2023-05-29T04:14:38Z) - Private, fair and accurate: Training large-scale, privacy-preserving AI models in medical imaging [47.99192239793597]
我々は,AIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して精度と公平性に与える影響を評価した。
我々の研究は、実際の臨床データセットの困難な現実的な状況下では、診断深層学習モデルのプライバシー保護トレーニングは、優れた診断精度と公正さで可能であることを示しています。
論文 参考訳(メタデータ) (2023-02-03T09:49:13Z) - Practical Challenges in Differentially-Private Federated Survival
Analysis of Medical Data [57.19441629270029]
本稿では,ニューラルネットワークの本質的特性を活用し,生存分析モデルの訓練過程を関連づける。
小さな医療データセットと少数のデータセンターの現実的な設定では、このノイズはモデルを収束させるのが難しくなります。
DPFed-post は,私的フェデレート学習方式に後処理の段階を追加する。
論文 参考訳(メタデータ) (2022-02-08T10:03:24Z) - Advancing COVID-19 Diagnosis with Privacy-Preserving Collaboration in
Artificial Intelligence [79.038671794961]
我々はUCADI(Unified CT-COVID AI Diagnostic Initiative)を立ち上げ、各ホスト機関でAIモデルを分散的にトレーニングし、独立して実行することができる。
本研究は,中国とイギリスに所在する23の病院で採取した3,336例の胸部CT9,573例について検討した。
論文 参考訳(メタデータ) (2021-11-18T00:43:41Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。