論文の概要: Jekyll: Attacking Medical Image Diagnostics using Deep Generative Models
- arxiv url: http://arxiv.org/abs/2104.02107v1
- Date: Mon, 5 Apr 2021 18:23:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-07 14:15:43.905755
- Title: Jekyll: Attacking Medical Image Diagnostics using Deep Generative Models
- Title(参考訳): Jekyll: 深部生成モデルを用いた医用画像診断の攻撃
- Authors: Neal Mangaokar, Jiameng Pu, Parantapa Bhattacharya, Chandan K. Reddy,
Bimal Viswanath
- Abstract要約: Jekyllは、患者のバイオメディカルイメージを入力として取得し、攻撃者選択病状態を示す新しい画像に変換する神経型転送フレームワークです。
これらの攻撃は、医療専門家とアルゴリズム検出スキームの両方を誤解させる結果となった。
また,jekyllが生成する画像を検出するための機械学習に基づく防御対策についても検討した。
- 参考スコア(独自算出の注目度): 8.853343040790795
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Advances in deep neural networks (DNNs) have shown tremendous promise in the
medical domain. However, the deep learning tools that are helping the domain,
can also be used against it. Given the prevalence of fraud in the healthcare
domain, it is important to consider the adversarial use of DNNs in manipulating
sensitive data that is crucial to patient healthcare. In this work, we present
the design and implementation of a DNN-based image translation attack on
biomedical imagery. More specifically, we propose Jekyll, a neural style
transfer framework that takes as input a biomedical image of a patient and
translates it to a new image that indicates an attacker-chosen disease
condition. The potential for fraudulent claims based on such generated 'fake'
medical images is significant, and we demonstrate successful attacks on both
X-rays and retinal fundus image modalities. We show that these attacks manage
to mislead both medical professionals and algorithmic detection schemes.
Lastly, we also investigate defensive measures based on machine learning to
detect images generated by Jekyll.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)の進歩は、医療分野で大きな可能性を秘めている。
しかし、ドメインを支援するディープラーニングツールも、それに対して使用することができる。
医療領域における詐欺の頻度を考慮すると、患者医療にとって重要な機密データを操作する上で、DNNの敵対的利用を考えることが重要である。
本稿では,生体医用画像に対するDNNを用いた画像翻訳攻撃の設計と実装について述べる。
より具体的には、患者のバイオメディカルイメージを入力として、アタッカー・チョセン病の病態を示す新しい画像に変換する神経スタイルのトランスファーフレームワークであるJekyllを提案する。
このような「偽」医療画像に基づく不正なクレームの可能性を重要視し,X線画像と網膜基底画像の両方に対する攻撃に成功した。
これらの攻撃は、医療専門家とアルゴリズム検出スキームの両方を誤解させる結果となった。
最後に,Jekyllが生成した画像を検出する機械学習に基づく防御策についても検討する。
関連論文リスト
- MITS-GAN: Safeguarding Medical Imaging from Tampering with Generative Adversarial Networks [48.686454485328895]
本研究では,医療画像の改ざんを防止する新しいアプローチであるMITS-GANを紹介する。
このアプローチは、人間の目には知覚できない微調整された摂動を導入することで、攻撃者のCT-GANアーキテクチャの出力を妨害する。
CTスキャンによる実験結果から,MITS-GANの優れた性能が確認された。
論文 参考訳(メタデータ) (2024-01-17T22:30:41Z) - Follow My Eye: Using Gaze to Supervise Computer-Aided Diagnosis [54.60796004113496]
医用画像を読む放射線科医の眼球運動は,DNNベースのコンピュータ支援診断システム(CAD)を訓練するための新たな指導形態であることが実証された。
画像を読んでいるときに、放射線科医の視線を記録します。
視線情報は処理され、アテンション一貫性モジュールを介してDNNの注意を監督するために使用される。
論文 参考訳(メタデータ) (2022-04-06T08:31:05Z) - The Security of Deep Learning Defences for Medical Imaging [36.060636819669604]
攻撃者は、被害者の深層学習モデルを騙しながら、現状の5つのアートディフェンスを回避できることを示す。
1)システムのセキュリティを強化し,(2)デジタル署名を使用する。
論文 参考訳(メタデータ) (2022-01-21T12:11:17Z) - FIBA: Frequency-Injection based Backdoor Attack in Medical Image
Analysis [82.2511780233828]
本稿では,様々な医療画像解析タスクにおいて,攻撃を行うことのできる新しい周波数注入型バックドアアタック法(FIBA)を提案する。
具体的には、FIBAは、両方の画像のスペクトル振幅を線形に組み合わせることで、トリガー画像の低周波情報を有毒画像に注入できる周波数領域のトリガー関数を利用する。
論文 参考訳(メタデータ) (2021-12-02T11:52:17Z) - Pathology-Aware Generative Adversarial Networks for Medical Image
Augmentation [0.22843885788439805]
GAN(Generative Adversarial Networks)は、現実的だが斬新なサンプルを生成し、実際の画像分布を効果的にカバーする。
この論文は、医師とのコラボレーションにおいて、そのような新しい応用の臨床的意義を提示することを目的とした4つのGANプロジェクトを含んでいる。
論文 参考訳(メタデータ) (2021-06-03T15:08:14Z) - Adversarial Robustness Study of Convolutional Neural Network for Lumbar
Disk Shape Reconstruction from MR images [1.2809525640002362]
本研究では, 腰椎MR画像から腰椎椎間板形状を再構成するための代表的CNNのin-distriion (IND) とout-of-distriion (OOD) の対向性について検討した。
以上の結果から, IND対人訓練は, IND対人攻撃に対するCNNのロバスト性を向上し, より大きなトレーニングデータセットがIND対人攻撃のロバスト性を高める可能性が示唆された。
論文 参考訳(メタデータ) (2021-02-04T20:57:49Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - Bias Field Poses a Threat to DNN-based X-Ray Recognition [21.317001512826476]
胸部X線画像には、不適切な医用画像取得プロセスによって引き起こされるバイアスフィールドが広く存在している。
本稿では,近年の敵攻撃をベースとしてこの問題を考察し,新たな攻撃法を提案する。
本手法は,DNNによるX線自動診断に対する潜在的な脅威を明らかにし,バイアスフィールド・ローバスト自動診断システムの開発に有効である。
論文 参考訳(メタデータ) (2020-09-19T14:58:02Z) - Adversarial Exposure Attack on Diabetic Retinopathy Imagery Grading [75.73437831338907]
糖尿病網膜症(DR)は、世界中の視覚障害の主要な原因である。
診断を助けるために、多くの最先端の作業が強力なディープニューラルネットワーク(DNN)を構築し、網膜基底画像(RFI)を介してDRを自動的にグレードする。
RFIは一般的に、不正グレードにつながる可能性のあるカメラ露出の問題によって影響を受ける。
本稿では,敵攻撃の観点からこの問題を考察する。
論文 参考訳(メタデータ) (2020-09-19T13:47:33Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。