論文の概要: Defending Medical Image Diagnostics against Privacy Attacks using
Generative Methods
- arxiv url: http://arxiv.org/abs/2103.03078v1
- Date: Thu, 4 Mar 2021 15:02:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-05 15:01:52.102587
- Title: Defending Medical Image Diagnostics against Privacy Attacks using
Generative Methods
- Title(参考訳): ジェネラティブ手法を用いたプライバシ攻撃に対する医療画像診断の防御
- Authors: William Paul, Yinzhi Cao, Miaomiao Zhang, and Phil Burlina
- Abstract要約: 生成敵対ネットワーク(GAN)を用いたプライバシー防御プロトコルの開発と評価を行います。
本研究では, 糖尿病性網膜症に用いる網膜診断AIについて, 個人情報が漏洩するリスクがあることを示す。
- 参考スコア(独自算出の注目度): 10.504951891644474
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning (ML) models used in medical imaging diagnostics can be
vulnerable to a variety of privacy attacks, including membership inference
attacks, that lead to violations of regulations governing the use of medical
data and threaten to compromise their effective deployment in the clinic. In
contrast to most recent work in privacy-aware ML that has been focused on model
alteration and post-processing steps, we propose here a novel and complementary
scheme that enhances the security of medical data by controlling the data
sharing process. We develop and evaluate a privacy defense protocol based on
using a generative adversarial network (GAN) that allows a medical data sourcer
(e.g. a hospital) to provide an external agent (a modeler) a proxy dataset
synthesized from the original images, so that the resulting diagnostic systems
made available to model consumers is rendered resilient to privacy attackers.
We validate the proposed method on retinal diagnostics AI used for diabetic
retinopathy that bears the risk of possibly leaking private information. To
incorporate concerns of both privacy advocates and modelers, we introduce a
metric to evaluate privacy and utility performance in combination, and
demonstrate, using these novel and classical metrics, that our approach, by
itself or in conjunction with other defenses, provides state of the art (SOTA)
performance for defending against privacy attacks.
- Abstract(参考訳): 医療画像診断に使用される機械学習(ML)モデルは、メンバーシップ推論攻撃を含むさまざまなプライバシー攻撃に脆弱になり、医療データの使用を規制する規制に違反し、診療所での効果的な展開を妨害する恐れがあります。
本稿では,モデル変更と後処理ステップに着目したプライバシアウェアmlの最近の研究とは対照的に,データ共有プロセスを制御することで医療データのセキュリティを高める新しい補完スキームを提案する。
本稿では,医療データ発信者に対してGAN(Generative Adversarial Network)を用いたプライバシ保護プロトコルの開発と評価を行う。
病院) 原画像から合成されたプロキシデータセットを外部エージェント(モデラー)に提供することで、モデル消費者が利用可能な診断システムは、プライバシ攻撃者に対してレジリエントになる。
本研究では, 糖尿病性網膜症に用いる網膜診断AIについて, 個人情報が漏洩するリスクがあることを示す。
プライバシー擁護者とモデラーの両方の懸念を組み込むために、プライバシーとユーティリティのパフォーマンスを組み合わせ評価するメトリクスを導入し、これらの新旧のメトリクスを使用して、私たちのアプローチは、それ自体または他の防御と組み合わせて、プライバシー攻撃から守るための最先端の(SOTA)パフォーマンスを提供します。
関連論文リスト
- FedDP: Privacy-preserving method based on federated learning for histopathology image segmentation [2.864354559973703]
本稿では,医用画像データの分散特性とプライバシ感受性について,フェデレート学習フレームワークを用いて検討する。
提案手法であるFedDPは,がん画像データのプライバシーを効果的に保護しつつ,モデルの精度に最小限の影響を与える。
論文 参考訳(メタデータ) (2024-11-07T08:02:58Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Explainable Machine Learning-Based Security and Privacy Protection Framework for Internet of Medical Things Systems [1.8434042562191815]
インターネット・オブ・メディカル・モノ(IoMT)は、従来の医療境界を超越し、反応性治療から予防への転換を可能にする。
その利点は、処理されたデータの感度と価値のために、ユーザの生活を危険にさらす、重大なセキュリティ上の課題に対処されている。
新しいIDS(Intrusion Detection Systems)フレームワークを導入し、ANN(Artificial Neural Networks)を侵入検知に利用し、FL(Federated Learning)をプライバシ保護に活用する。
論文 参考訳(メタデータ) (2024-03-14T11:57:26Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Privacy-Preserving Medical Image Classification through Deep Learning
and Matrix Decomposition [0.0]
近年,医学領域において深層学習(DL)ソリューションが広く研究されている。
医療関連データの利用は厳格に規制されており、病院の外部で医療記録を処理するためには、堅牢なデータ保護措置が必要である。
本稿では, 特異値分解(SVD)と主成分分析(PCA)を用いて, DL解析に使用する前に, 医用画像の難読化を行う。
保護されたデータから関連する情報を抽出するDLアルゴリズムの能力は、難読化フレームに基づく血管造影ビュー分類のタスクに基づいて評価される。
論文 参考訳(メタデータ) (2023-08-31T08:21:09Z) - Safe AI for health and beyond -- Monitoring to transform a health
service [51.8524501805308]
機械学習アルゴリズムの出力を監視するために必要なインフラストラクチャを評価する。
モデルのモニタリングと更新の例を示す2つのシナリオを提示します。
論文 参考訳(メタデータ) (2023-03-02T17:27:45Z) - Application of Homomorphic Encryption in Medical Imaging [60.51436886110803]
医療画像の予測にHEを用いて,不正な二次的データの使用を防止できることを示す。
結節検出に3次元胸部CT-Scansを用いた実験を行った。
論文 参考訳(メタデータ) (2021-10-12T19:57:12Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z) - A Review of Anonymization for Healthcare Data [0.30586855806896046]
一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)
論文 参考訳(メタデータ) (2021-04-13T21:44:29Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。