論文の概要: Evaluation of Inference Attack Models for Deep Learning on Medical Data
- arxiv url: http://arxiv.org/abs/2011.00177v1
- Date: Sat, 31 Oct 2020 03:18:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 04:37:22.268035
- Title: Evaluation of Inference Attack Models for Deep Learning on Medical Data
- Title(参考訳): 医学データを用いた深層学習のための推論攻撃モデルの評価
- Authors: Maoqiang Wu, Xinyue Zhang, Jiahao Ding, Hien Nguyen, Rong Yu, Miao
Pan, Stephen T. Wong
- Abstract要約: 最近開発された推論攻撃アルゴリズムは、画像とテキスト記録を悪意ある当事者によって再構成可能であることを示している。
これにより、機密性の高い患者情報を含む医療画像と電子健康記録がこれらの攻撃に対して脆弱であるという懸念が生じる。
本稿では,この重要な問題に対して,医学的深層学習コミュニティの研究者の関心を惹きつけることを目的とする。
- 参考スコア(独自算出の注目度): 16.128164765752032
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has attracted broad interest in healthcare and medical
communities. However, there has been little research into the privacy issues
created by deep networks trained for medical applications. Recently developed
inference attack algorithms indicate that images and text records can be
reconstructed by malicious parties that have the ability to query deep
networks. This gives rise to the concern that medical images and electronic
health records containing sensitive patient information are vulnerable to these
attacks. This paper aims to attract interest from researchers in the medical
deep learning community to this important problem. We evaluate two prominent
inference attack models, namely, attribute inference attack and model inversion
attack. We show that they can reconstruct real-world medical images and
clinical reports with high fidelity. We then investigate how to protect
patients' privacy using defense mechanisms, such as label perturbation and
model perturbation. We provide a comparison of attack results between the
original and the medical deep learning models with defenses. The experimental
evaluations show that our proposed defense approaches can effectively reduce
the potential privacy leakage of medical deep learning from the inference
attacks.
- Abstract(参考訳): 深層学習は医療や医療社会に広く関心を集めている。
しかし、医療応用のために訓練されたディープネットワークが生み出すプライバシー問題についてはほとんど研究されていない。
最近開発された推論攻撃アルゴリズムは、ディープネットワークをクエリできる悪意のある関係者によって、画像とテキストレコードを再構築可能であることを示している。
これにより、機密性の高い患者情報を含む医療画像と電子健康記録がこれらの攻撃に対して脆弱であるという懸念が生じる。
本稿では,この課題に対する医学的深層学習コミュニティの研究者の関心を引き付けることを目的としている。
我々は2つの顕著な推論攻撃モデル、すなわち属性推論攻撃とモデル反転攻撃を評価する。
実世界の医療画像と臨床報告を高い忠実度で再現できることを示す。
次に,ラベル摂動やモデル摂動などの防御機構を用いて患者のプライバシーを守る方法について検討する。
本報告では,本モデルと医学的深層学習モデルによる攻撃結果と防御性の比較を行った。
実験評価の結果,提案手法は医学的深層学習の潜在的なプライバシー漏洩を効果的に軽減する可能性が示唆された。
関連論文リスト
- Model Inversion Attacks: A Survey of Approaches and Countermeasures [59.986922963781]
近年、新しいタイプのプライバシ攻撃であるモデル反転攻撃(MIA)は、トレーニングのためのプライベートデータの機密性を抽出することを目的としている。
この重要性にもかかわらず、総合的な概要とMIAに関する深い洞察を提供する体系的な研究が欠如している。
本調査は、攻撃と防御の両方において、最新のMIA手法を要約することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T08:09:28Z) - In-depth Analysis of Privacy Threats in Federated Learning for Medical Data [2.6986500640871482]
医療分野では、医療画像を分析するための有望な機械学習技術として、フェデレートラーニングが登場している。
近年の研究では、フェデレートされた学習のデフォルト設定が、プライバシー攻撃に対して故意にプライベートトレーニングデータを公開する可能性があることが明らかになっている。
医療データを対象としたフェデレーション学習において,プライバシリスク分析と緩和に3つのオリジナルの貢献をしている。
論文 参考訳(メタデータ) (2024-09-27T16:45:35Z) - DFT-Based Adversarial Attack Detection in MRI Brain Imaging: Enhancing Diagnostic Accuracy in Alzheimer's Case Studies [0.5249805590164902]
医療画像に対する敵対的な攻撃は、疾患の診断において誤分類を引き起こし、深刻な結果をもたらす可能性がある。
本研究では,アルツハイマー病関連画像に対する敵対的攻撃について検討し,これらの攻撃に対する防御方法を提案する。
提案手法では,畳み込みニューラルネットワーク(CNN)に基づくオートエンコーダアーキテクチャと2次元フーリエ変換を併用して検出を行う。
論文 参考訳(メタデータ) (2024-08-16T02:18:23Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - How Deep Learning Sees the World: A Survey on Adversarial Attacks &
Defenses [0.0]
本稿では、攻撃能力によってグループ化された最新の敵攻撃と、防御戦略によってクラスタ化された現代の防御をコンパイルする。
また、視覚変換器に関する新たな進歩を提示し、敵対的設定の文脈で使用されるデータセットとメトリクスを要約し、異なる攻撃下での最先端の結果を比較し、オープンな問題の特定で終了する。
論文 参考訳(メタデータ) (2023-05-18T10:33:28Z) - Survey on Adversarial Attack and Defense for Medical Image Analysis: Methods and Challenges [64.63744409431001]
医療画像解析における敵攻撃・防衛の進歩に関する総合的な調査を報告する。
公正な比較のために、逆向きに堅牢な診断モデルのための新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2023-03-24T16:38:58Z) - Homomorphic Encryption and Federated Learning based Privacy-Preserving
CNN Training: COVID-19 Detection Use-Case [0.41998444721319217]
本稿では、同相暗号を用いた医療データのためのプライバシー保護フェデレーション学習アルゴリズムを提案する。
提案アルゴリズムはセキュアなマルチパーティ計算プロトコルを用いて,ディープラーニングモデルを敵から保護する。
論文 参考訳(メタデータ) (2022-04-16T08:38:35Z) - Privacy-aware Early Detection of COVID-19 through Adversarial Training [8.722475705906206]
新型コロナウイルスの早期発見は、潜在的な患者のトリアージ、モニタリング、一般的な健康評価に役立つ研究分野として進行中である。
さまざまな機械学習技術が、通常の臨床データを用いて新型コロナウイルスを検出するために文献で使用されている。
データ漏洩とこれらのモデルを使用する際の情報漏洩は、評判に悪影響を及ぼし、病院に法的問題を引き起こす可能性がある。
論文 参考訳(メタデータ) (2022-01-09T13:08:11Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。