論文の概要: Vision Through the Veil: Differential Privacy in Federated Learning for
Medical Image Classification
- arxiv url: http://arxiv.org/abs/2306.17794v1
- Date: Fri, 30 Jun 2023 16:48:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-03 11:48:15.552161
- Title: Vision Through the Veil: Differential Privacy in Federated Learning for
Medical Image Classification
- Title(参考訳): 医用画像分類のためのフェデレーション学習における視覚的プライバシー
- Authors: Kishore Babu Nampalle, Pradeep Singh, Uppala Vivek Narayan,
Balasubramanian Raman
- Abstract要約: 医療におけるディープラーニングアプリケーションの普及は、さまざまな機関にデータ収集を求める。
プライバシー保護メカニズムは、データが自然に敏感である医療画像解析において最重要である。
本研究は,プライバシ保護技術である差分プライバシを,医用画像分類のための統合学習フレームワークに統合することの必要性に対処する。
- 参考スコア(独自算出の注目度): 15.382184404673389
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The proliferation of deep learning applications in healthcare calls for data
aggregation across various institutions, a practice often associated with
significant privacy concerns. This concern intensifies in medical image
analysis, where privacy-preserving mechanisms are paramount due to the data
being sensitive in nature. Federated learning, which enables cooperative model
training without direct data exchange, presents a promising solution.
Nevertheless, the inherent vulnerabilities of federated learning necessitate
further privacy safeguards. This study addresses this need by integrating
differential privacy, a leading privacy-preserving technique, into a federated
learning framework for medical image classification. We introduce a novel
differentially private federated learning model and meticulously examine its
impacts on privacy preservation and model performance. Our research confirms
the existence of a trade-off between model accuracy and privacy settings.
However, we demonstrate that strategic calibration of the privacy budget in
differential privacy can uphold robust image classification performance while
providing substantial privacy protection.
- Abstract(参考訳): 医療におけるディープラーニングアプリケーションの増加は、さまざまな機関にまたがってデータ集約を要求している。
この懸念は、データが自然に敏感であるためにプライバシ保護機構が最優先される医療画像解析において強まる。
直接データ交換なしで協調的なモデルトレーニングを可能にするフェデレーション学習は、有望なソリューションを提供する。
それでも、連合学習の固有の脆弱性は、さらなるプライバシー保護を必要とする。
本研究は,プライバシ保護技術である差分プライバシーを,医用画像分類のための統合学習フレームワークに統合することで,このニーズに対処する。
本稿では,差分プライベートなフェデレーション学習モデルを導入し,プライバシ保護とモデル性能に与える影響を慎重に検討する。
本研究は,モデル精度とプライバシー設定のトレードオフの存在を確認した。
しかし、差分プライバシーにおけるプライバシー予算の戦略的校正は、実質的なプライバシー保護を提供しながら、堅牢な画像分類性能を維持できることを示す。
関連論文リスト
- FedDP: Privacy-preserving method based on federated learning for histopathology image segmentation [2.864354559973703]
本稿では,医用画像データの分散特性とプライバシ感受性について,フェデレート学習フレームワークを用いて検討する。
提案手法であるFedDPは,がん画像データのプライバシーを効果的に保護しつつ,モデルの精度に最小限の影響を与える。
論文 参考訳(メタデータ) (2024-11-07T08:02:58Z) - Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - In-depth Analysis of Privacy Threats in Federated Learning for Medical Data [2.6986500640871482]
医療分野では、医療画像を分析するための有望な機械学習技術として、フェデレートラーニングが登場している。
近年の研究では、フェデレートされた学習のデフォルト設定が、プライバシー攻撃に対して故意にプライベートトレーニングデータを公開する可能性があることが明らかになっている。
医療データを対象としたフェデレーション学習において,プライバシリスク分析と緩和に3つのオリジナルの貢献をしている。
論文 参考訳(メタデータ) (2024-09-27T16:45:35Z) - Enhancing User-Centric Privacy Protection: An Interactive Framework through Diffusion Models and Machine Unlearning [54.30994558765057]
この研究は、データ共有とモデル公開の間、画像データのプライバシーを同時に保護する包括的なプライバシー保護フレームワークのパイオニアだ。
本稿では、生成機械学習モデルを用いて属性レベルで画像情報を修正するインタラクティブな画像プライバシー保護フレームワークを提案する。
本フレームワークでは、画像中の属性情報を保護する差分プライバシー拡散モデルと、修正された画像データセット上でトレーニングされたモデルの効率的な更新を行う特徴未学習アルゴリズムの2つのモジュールをインスタンス化する。
論文 参考訳(メタデータ) (2024-09-05T07:55:55Z) - Differentially Private Federated Learning: A Systematic Review [35.13641504685795]
本稿では,様々な差分プライバシモデルとシナリオの定義と保証に基づく,差分私的フェデレーション学習の新しい分類法を提案する。
本研究は,プライバシ保護フェデレーション学習に関する貴重な知見を提供し,今後の研究に向けた実践的方向性を提案する。
論文 参考訳(メタデータ) (2024-05-14T03:49:14Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - On the Privacy Effect of Data Enhancement via the Lens of Memorization [20.63044895680223]
我々は,記憶化という新たな視点からプライバシを調査することを提案する。
記憶のレンズを通して、以前デプロイされたMIAは、より高いプライバシーリスクを持つサンプルを特定する可能性が低いため、誤解を招く結果をもたらすことがわかった。
一般化ギャップとプライバシリークは, これまでの結果に比べて相関が低いことを示す。
論文 参考訳(メタデータ) (2022-08-17T13:02:17Z) - Privacy Enhancement for Cloud-Based Few-Shot Learning [4.1579007112499315]
クラウドなど,信頼できない環境における数ショット学習のプライバシ向上について検討する。
本稿では,共同損失によるプライバシー保護表現を学習する手法を提案する。
実証的な結果は、プライバシが強化された数発の学習において、プライバシとパフォーマンスのトレードオフをどのように交渉できるかを示している。
論文 参考訳(メタデータ) (2022-05-10T18:48:13Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。