論文の概要: Defending Medical Image Diagnostics against Privacy Attacks using
Generative Methods
- arxiv url: http://arxiv.org/abs/2103.03078v1
- Date: Thu, 4 Mar 2021 15:02:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-05 15:01:52.102587
- Title: Defending Medical Image Diagnostics against Privacy Attacks using
Generative Methods
- Title(参考訳): ジェネラティブ手法を用いたプライバシ攻撃に対する医療画像診断の防御
- Authors: William Paul, Yinzhi Cao, Miaomiao Zhang, and Phil Burlina
- Abstract要約: 生成敵対ネットワーク(GAN)を用いたプライバシー防御プロトコルの開発と評価を行います。
本研究では, 糖尿病性網膜症に用いる網膜診断AIについて, 個人情報が漏洩するリスクがあることを示す。
- 参考スコア(独自算出の注目度): 10.504951891644474
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning (ML) models used in medical imaging diagnostics can be
vulnerable to a variety of privacy attacks, including membership inference
attacks, that lead to violations of regulations governing the use of medical
data and threaten to compromise their effective deployment in the clinic. In
contrast to most recent work in privacy-aware ML that has been focused on model
alteration and post-processing steps, we propose here a novel and complementary
scheme that enhances the security of medical data by controlling the data
sharing process. We develop and evaluate a privacy defense protocol based on
using a generative adversarial network (GAN) that allows a medical data sourcer
(e.g. a hospital) to provide an external agent (a modeler) a proxy dataset
synthesized from the original images, so that the resulting diagnostic systems
made available to model consumers is rendered resilient to privacy attackers.
We validate the proposed method on retinal diagnostics AI used for diabetic
retinopathy that bears the risk of possibly leaking private information. To
incorporate concerns of both privacy advocates and modelers, we introduce a
metric to evaluate privacy and utility performance in combination, and
demonstrate, using these novel and classical metrics, that our approach, by
itself or in conjunction with other defenses, provides state of the art (SOTA)
performance for defending against privacy attacks.
- Abstract(参考訳): 医療画像診断に使用される機械学習(ML)モデルは、メンバーシップ推論攻撃を含むさまざまなプライバシー攻撃に脆弱になり、医療データの使用を規制する規制に違反し、診療所での効果的な展開を妨害する恐れがあります。
本稿では,モデル変更と後処理ステップに着目したプライバシアウェアmlの最近の研究とは対照的に,データ共有プロセスを制御することで医療データのセキュリティを高める新しい補完スキームを提案する。
本稿では,医療データ発信者に対してGAN(Generative Adversarial Network)を用いたプライバシ保護プロトコルの開発と評価を行う。
病院) 原画像から合成されたプロキシデータセットを外部エージェント(モデラー)に提供することで、モデル消費者が利用可能な診断システムは、プライバシ攻撃者に対してレジリエントになる。
本研究では, 糖尿病性網膜症に用いる網膜診断AIについて, 個人情報が漏洩するリスクがあることを示す。
プライバシー擁護者とモデラーの両方の懸念を組み込むために、プライバシーとユーティリティのパフォーマンスを組み合わせ評価するメトリクスを導入し、これらの新旧のメトリクスを使用して、私たちのアプローチは、それ自体または他の防御と組み合わせて、プライバシー攻撃から守るための最先端の(SOTA)パフォーマンスを提供します。
関連論文リスト
- MITS-GAN: Safeguarding Medical Imaging from Tampering with Generative
Adversarial Networks [52.233065714716886]
本研究では,医療画像の改ざんを防止する新しいアプローチであるMITS-GANを紹介する。
このアプローチは攻撃者のCT-GANアーキテクチャの出力を妨害する。
CTスキャンデータセットの実験結果は、MITS-GANの優れた性能を示している。
論文 参考訳(メタデータ) (2024-01-17T22:30:41Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Privacy-Preserving Medical Image Classification through Deep Learning
and Matrix Decomposition [0.0]
近年,医学領域において深層学習(DL)ソリューションが広く研究されている。
医療関連データの利用は厳格に規制されており、病院の外部で医療記録を処理するためには、堅牢なデータ保護措置が必要である。
本稿では, 特異値分解(SVD)と主成分分析(PCA)を用いて, DL解析に使用する前に, 医用画像の難読化を行う。
保護されたデータから関連する情報を抽出するDLアルゴリズムの能力は、難読化フレームに基づく血管造影ビュー分類のタスクに基づいて評価される。
論文 参考訳(メタデータ) (2023-08-31T08:21:09Z) - Towards Blockchain-Assisted Privacy-Aware Data Sharing For Edge
Intelligence: A Smart Healthcare Perspective [19.208368632576153]
リンク攻撃はプライバシードメインにおける支配的な攻撃の一種である。
敵は 健康データを偽装するために 毒殺攻撃を仕掛ける 誤診や 身体的損傷までも 引き起こす
個人の健康データを保護するために,ユーザ間の信頼度に基づく個人差分プライバシモデルを提案する。
論文 参考訳(メタデータ) (2023-06-29T02:06:04Z) - Safe AI for health and beyond -- Monitoring to transform a health
service [51.8524501805308]
機械学習アルゴリズムの出力を監視するために必要なインフラストラクチャを評価する。
モデルのモニタリングと更新の例を示す2つのシナリオを提示します。
論文 参考訳(メタデータ) (2023-03-02T17:27:45Z) - Private, fair and accurate: Training large-scale, privacy-preserving AI
models in medical imaging [49.588766426499184]
我々は,AIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して精度と公平性に与える影響を評価した。
我々の研究は、実際の臨床データセットの困難な現実的な状況下では、診断深層学習モデルのプライバシー保護トレーニングは、優れた診断精度と公正さで可能であることを示しています。
論文 参考訳(メタデータ) (2023-02-03T09:49:13Z) - Homomorphic Encryption and Federated Learning based Privacy-Preserving
CNN Training: COVID-19 Detection Use-Case [0.41998444721319217]
本稿では、同相暗号を用いた医療データのためのプライバシー保護フェデレーション学習アルゴリズムを提案する。
提案アルゴリズムはセキュアなマルチパーティ計算プロトコルを用いて,ディープラーニングモデルを敵から保護する。
論文 参考訳(メタデータ) (2022-04-16T08:38:35Z) - Application of Homomorphic Encryption in Medical Imaging [60.51436886110803]
医療画像の予測にHEを用いて,不正な二次的データの使用を防止できることを示す。
結節検出に3次元胸部CT-Scansを用いた実験を行った。
論文 参考訳(メタデータ) (2021-10-12T19:57:12Z) - A Review of Anonymization for Healthcare Data [0.30586855806896046]
一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)
論文 参考訳(メタデータ) (2021-04-13T21:44:29Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。