論文の概要: Stabilized Medical Image Attacks
- arxiv url: http://arxiv.org/abs/2103.05232v1
- Date: Tue, 9 Mar 2021 05:40:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-11 01:37:17.260219
- Title: Stabilized Medical Image Attacks
- Title(参考訳): 安定化医療画像攻撃
- Authors: Gege Qi, Lijun Gong, Yibing Song, Kai Ma, Yefeng Zheng
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、自動疾患診断のための既存の医療システムである。
不正確な診断結果は、人間の医療に悪影響を及ぼす。
本稿では,医用画像に対する対向的摂動を連続的に生成するための,画像に基づく医用対向攻撃法を提案する。
- 参考スコア(独自算出の注目度): 39.472403649822986
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional Neural Networks (CNNs) have advanced existing medical systems
for automatic disease diagnosis. However, a threat to these systems arises that
adversarial attacks make CNNs vulnerable. Inaccurate diagnosis results make a
negative influence on human healthcare. There is a need to investigate
potential adversarial attacks to robustify deep medical diagnosis systems. On
the other side, there are several modalities of medical images (e.g., CT,
fundus, and endoscopic image) of which each type is significantly different
from others. It is more challenging to generate adversarial perturbations for
different types of medical images. In this paper, we propose an image-based
medical adversarial attack method to consistently produce adversarial
perturbations on medical images. The objective function of our method consists
of a loss deviation term and a loss stabilization term. The loss deviation term
increases the divergence between the CNN prediction of an adversarial example
and its ground truth label. Meanwhile, the loss stabilization term ensures
similar CNN predictions of this example and its smoothed input. From the
perspective of the whole iterations for perturbation generation, the proposed
loss stabilization term exhaustively searches the perturbation space to smooth
the single spot for local optimum escape. We further analyze the KL-divergence
of the proposed loss function and find that the loss stabilization term makes
the perturbations updated towards a fixed objective spot while deviating from
the ground truth. This stabilization ensures the proposed medical attack
effective for different types of medical images while producing perturbations
in small variance. Experiments on several medical image analysis benchmarks
including the recent COVID-19 dataset show the stability of the proposed
method.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、自動疾患診断のための既存の医療システムである。
しかし、これらのシステムに対する脅威は、逆襲攻撃がCNNを脆弱にすることである。
不正確な診断結果は、人間の医療に悪影響を及ぼす。
深部医療診断システムを強化するためには, 敵対的攻撃の可能性を検討する必要がある。
一方, 医療画像(CT, 眼底, 内視鏡画像など)には様々な形態があり, それぞれのタイプが他と大きく異なる。
さまざまなタイプの医療画像に対する逆の摂動を生成することはより困難です。
本稿では,医用画像に対して常に逆向きの摂動を発生させる画像ベース医療敵攻撃法を提案する。
本手法の客観的機能は、損失偏差項と損失安定化項とからなる。
損失偏差項は、逆例のCNN予測と基底真理ラベルとの間の発散を増加させる。
一方、損失安定化項は、この例と平滑化された入力の類似のcnn予測を保証する。
摂動発生の反復の全体の観点から、提案した損失安定化項は摂動空間を徹底的に探索し、局所的最適脱出のための単一スポットを滑らかにする。
さらに,提案する損失関数のkl分割を解析し,損失安定化項が基底真理から逸脱しながら,摂動を固定目的点に向けて更新することを示す。
この安定化は、小さなばらつきで摂動を発生させながら、異なる種類の医療画像に有効な医療攻撃を確実にする。
最近のCOVID-19データセットを含むいくつかの医療画像分析ベンチマークの実験は、提案手法の安定性を示している。
関連論文リスト
- FedMedICL: Towards Holistic Evaluation of Distribution Shifts in Federated Medical Imaging [68.6715007665896]
FedMedICLは統合されたフレームワークであり、フェデレートされた医療画像の課題を全体評価するためのベンチマークである。
6種類の医用画像データセットについて,いくつかの一般的な手法を総合的に評価した。
単純なバッチ分散手法はFedMedICL実験全体の平均性能において,高度な手法を超越していることがわかった。
論文 参考訳(メタデータ) (2024-07-11T19:12:23Z) - Adversarial-Robust Transfer Learning for Medical Imaging via Domain
Assimilation [17.46080957271494]
医用画像が公開されていないため、現代のアルゴリズムは、大量の自然画像に基づいて事前訓練されたモデルに依存するようになった。
自然画像と医療画像の間に重要なエムドメインの相違があり、AIモデルは敵の攻撃に対するエムの脆弱性を高める。
本稿では,テクスチャと色適応を伝達学習に導入する Em ドメイン同化手法を提案する。
論文 参考訳(メタデータ) (2024-02-25T06:39:15Z) - Self-pruning Graph Neural Network for Predicting Inflammatory Disease
Activity in Multiple Sclerosis from Brain MR Images [10.312631192694479]
多発性硬化症(Multiple Sclerosis, MS)は、中枢神経系の炎症性病変を特徴とする重度の神経疾患である。
本稿では,2段階のMS炎症性疾患活動予測手法を提案する。まず3次元セグメンテーションネットワークが病変を検知し,自己管理アルゴリズムが画像の特徴を抽出する。
次に、検出された病変を患者グラフ構築に使用し、その空間的近接に基づいて病変を接続し、炎症性疾患活動予測をグラフ分類タスクとして定式化する。
論文 参考訳(メタデータ) (2023-08-31T17:05:14Z) - Robust T-Loss for Medical Image Segmentation [56.524774292536264]
本稿では,医用画像分割のための新しいロバストな損失関数T-Lossを提案する。
提案した損失は、Student-t分布の負のログ類似度に基づいており、データ内の外れ値の処理を効果的に行うことができる。
実験の結果,T-Lossは2つの医療データセットのダイススコアにおいて従来の損失関数よりも優れていた。
論文 参考訳(メタデータ) (2023-06-01T14:49:40Z) - Survey on Adversarial Attack and Defense for Medical Image Analysis: Methods and Challenges [64.63744409431001]
医療画像解析における敵攻撃・防衛の進歩に関する総合的な調査を報告する。
公正な比較のために、逆向きに堅牢な診断モデルのための新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2023-03-24T16:38:58Z) - Automated SSIM Regression for Detection and Quantification of Motion
Artefacts in Brain MR Images [54.739076152240024]
磁気共鳴脳画像における運動アーチファクトは重要な問題である。
MR画像の画質評価は,臨床診断に先立って基本的である。
構造類似度指数(SSIM)回帰に基づく自動画像品質評価法が提案されている。
論文 参考訳(メタデータ) (2022-06-14T10:16:54Z) - FedMed-ATL: Misaligned Unpaired Brain Image Synthesis via Affine
Transform Loss [58.58979566599889]
脳画像合成のための新しい自己教師型学習(FedMed)を提案する。
アフィン変換損失(ATL)は、プライバシー法に違反することなく、ひどく歪んだ画像を使用するように定式化された。
提案手法は, 極めて不整合かつ不整合なデータ設定下での合成結果の品質の両方において, 高度な性能を示す。
論文 参考訳(メタデータ) (2022-01-29T13:45:39Z) - Adversarial attacks on deep learning models for fatty liver disease
classification by modification of ultrasound image reconstruction method [0.8431877864777443]
畳み込みニューラルネットワーク(CNN)は、医用画像解析タスクにおいて顕著な成功を収めた。
CNNは敵攻撃に対して脆弱であり、入力データに適用される小さな摂動でさえ、モデルの性能に大きな影響を及ぼす可能性がある。
超音波(US)イメージングに特有な新たな逆行性攻撃を考案した。
論文 参考訳(メタデータ) (2020-09-07T18:35:35Z) - Integrating uncertainty in deep neural networks for MRI based stroke
analysis [0.0]
2次元磁気共鳴(MR)画像における脳梗塞の確率を示すベイズ畳み込みニューラルネットワーク(CNN)を提案する。
CNNは511例のコホートで、画像レベルでは95.33%の精度を達成し、非バイエルン人に比べて2%の大幅な改善を示した。
論文 参考訳(メタデータ) (2020-08-13T09:50:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。