論文の概要: White-box Membership Attack Against Machine Learning Based Retinopathy
Classification
- arxiv url: http://arxiv.org/abs/2206.03584v1
- Date: Mon, 30 May 2022 09:56:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-12 21:47:15.366462
- Title: White-box Membership Attack Against Machine Learning Based Retinopathy
Classification
- Title(参考訳): 機械学習に基づく網膜症分類に対するホワイトボックスメンバーシップアタック
- Authors: Mounia Hamidouche, Reda Bellafqira, Gwenol\'e Quellec, Gouenou
Coatrieux
- Abstract要約: 網膜画像から糖尿病網膜症を検出するために訓練されたモデルに対するMIAに焦点を当てた。
MIAは、トレーニングされたMLモデルのトレーニングデータセットからデータサンプルがくるかどうかを決定するプロセスである。
糖尿病網膜症分類モデルが患者の識別子とともに廃棄画像を持つパートナーに与えられる場合のプライバシの観点から、データサンプルの登録状況の推測は、患者がモデルのトレーニングに貢献したかどうかを判断するのに役立つ。
- 参考スコア(独自算出の注目度): 2.6811166658265573
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The advances in machine learning (ML) have greatly improved AI-based
diagnosis aid systems in medical imaging. However, being based on collecting
medical data specific to individuals induces several security issues,
especially in terms of privacy. Even though the owner of the images like a
hospital put in place strict privacy protection provisions at the level of its
information system, the model trained over his images still holds disclosure
potential. The trained model may be accessible to an attacker as: 1) White-box:
accessing to the model architecture and parameters; 2) Black box: where he can
only query the model with his own inputs through an appropriate interface.
Existing attack methods include: feature estimation attacks (FEA), membership
inference attack (MIA), model memorization attack (MMA) and identification
attacks (IA). In this work we focus on MIA against a model that has been
trained to detect diabetic retinopathy from retinal images. Diabetic
retinopathy is a condition that can cause vision loss and blindness in the
people who have diabetes. MIA is the process of determining whether a data
sample comes from the training data set of a trained ML model or not. From a
privacy perspective in our use case where a diabetic retinopathy classification
model is given to partners that have at their disposal images along with
patients' identifiers, inferring the membership status of a data sample can
help to state if a patient has contributed or not to the training of the model.
- Abstract(参考訳): 機械学習(ML)の進歩は、医療画像におけるAIベースの診断支援システムを大幅に改善した。
しかし、個人固有の医療データ収集に基づくことは、特にプライバシーに関して、いくつかのセキュリティ問題を引き起こす。
病院のような画像の所有者は、情報システムのレベルで厳格なプライバシー保護規定を課すが、彼の画像で訓練されたモデルには、開示の可能性がある。
トレーニングされたモデルは、アタッカーにアクセスすることができる。
1)ホワイトボックス: モデルアーキテクチャとパラメータへのアクセス。
2) black box: 適切なインターフェースを通じて、自身の入力でのみモデルをクエリできる。
既存の攻撃方法は、特徴推定攻撃(FEA)、メンバーシップ推論攻撃(MIA)、モデル記憶攻撃(MMA)、識別攻撃(IA)である。
本研究は、網膜画像から糖尿病網膜症を検出するために訓練されたモデルに対するMIAに焦点を当てる。
糖尿病網膜症(英: Diabetic retinopathy)は、糖尿病患者の視力低下と失明を引き起こす疾患である。
MIAは、トレーニングされたMLモデルのトレーニングデータセットからデータサンプルがくるかどうかを決定するプロセスである。
プライバシの観点からは,糖尿病性網膜症分類モデルが,患者の識別情報とともに使用済みのパートナーに与えられている場合,データサンプルのメンバシップステータスを推測することで,モデルのトレーニングに寄与したかどうかを判断することができる。
関連論文リスト
- BAPLe: Backdoor Attacks on Medical Foundational Models using Prompt Learning [71.60858267608306]
医療基盤モデルはバックドア攻撃の影響を受けやすい。
本研究は,素早い学習期間中に医療基盤モデルにバックドアを埋め込む方法を紹介する。
我々の手法であるBAPLeは、ノイズトリガを調整するために最小限のデータサブセットしか必要とせず、テキストは下流のタスクにプロンプトする。
論文 参考訳(メタデータ) (2024-08-14T10:18:42Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Unleashing Mask: Explore the Intrinsic Out-of-Distribution Detection
Capability [70.72426887518517]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイする際に、セキュアAIの必須の側面である。
本稿では,IDデータを用いた学習モデルのOOD識別能力を復元する新しい手法であるUnleashing Maskを提案する。
本手法では, マスクを用いて記憶した非定型サンプルを抽出し, モデルを微調整するか, 導入したマスクでプルーする。
論文 参考訳(メタデータ) (2023-06-06T14:23:34Z) - Deep Semi-Supervised and Self-Supervised Learning for Diabetic
Retinopathy Detection [0.0]
糖尿病網膜症は、先進国の労働年齢層における失明の主要な原因の1つである。
深部ニューラルネットワークは眼底画像のDR分類のための自動化システムで広く利用されている。
本稿では,ラベル付き画像とラベル付き画像を利用して糖尿病網膜症を検出するモデルを訓練する半教師付き手法を提案する。
論文 参考訳(メタデータ) (2022-08-04T02:28:13Z) - FIBA: Frequency-Injection based Backdoor Attack in Medical Image
Analysis [82.2511780233828]
本稿では,様々な医療画像解析タスクにおいて,攻撃を行うことのできる新しい周波数注入型バックドアアタック法(FIBA)を提案する。
具体的には、FIBAは、両方の画像のスペクトル振幅を線形に組み合わせることで、トリガー画像の低周波情報を有毒画像に注入できる周波数領域のトリガー関数を利用する。
論文 参考訳(メタデータ) (2021-12-02T11:52:17Z) - Application of Homomorphic Encryption in Medical Imaging [60.51436886110803]
医療画像の予測にHEを用いて,不正な二次的データの使用を防止できることを示す。
結節検出に3次元胸部CT-Scansを用いた実験を行った。
論文 参考訳(メタデータ) (2021-10-12T19:57:12Z) - Privacy-preserving Machine Learning for Medical Image Classification [0.0]
画像分類は、医療産業における機械学習(ML)の重要なユースケースである。
このような自動化システムを使用する場合、プライバシー上の懸念がある。
本研究では,胸部X線画像から肺炎の診断を行う医療画像分類問題の文脈において,これらの課題を解決することを目的とする。
論文 参考訳(メタデータ) (2021-08-29T10:50:18Z) - Membership Inference Attacks on Deep Regression Models for Neuroimaging [15.591129844038269]
我々は,3次元ニューロイメージングタスクのための訓練された深層学習モデルに対するリアルなメンバーシップ推論攻撃と,分散化されたセットアップを示す。
モデルの複雑性やセキュリティの仮定によって,MRIスキャンが60%から80%以上の成功率でモデルトレーニングに使用されたかどうかを正確に確認した。
論文 参考訳(メタデータ) (2021-05-06T17:51:06Z) - Defending Medical Image Diagnostics against Privacy Attacks using
Generative Methods [10.504951891644474]
生成敵対ネットワーク(GAN)を用いたプライバシー防御プロトコルの開発と評価を行います。
本研究では, 糖尿病性網膜症に用いる網膜診断AIについて, 個人情報が漏洩するリスクがあることを示す。
論文 参考訳(メタデータ) (2021-03-04T15:02:57Z) - An Interpretable Multiple-Instance Approach for the Detection of
referable Diabetic Retinopathy from Fundus Images [72.94446225783697]
基礎画像における参照糖尿病網膜症検出のための機械学習システムを提案する。
画像パッチから局所情報を抽出し,アテンション機構により効率的に組み合わせることで,高い分類精度を実現することができる。
我々は,現在入手可能な網膜画像データセットに対するアプローチを評価し,最先端の性能を示す。
論文 参考訳(メタデータ) (2021-03-02T13:14:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。