論文の概要: Adversarial Attack and Defense for Medical Image Analysis: Methods and
Applications
- arxiv url: http://arxiv.org/abs/2303.14133v1
- Date: Fri, 24 Mar 2023 16:38:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-27 13:45:07.185927
- Title: Adversarial Attack and Defense for Medical Image Analysis: Methods and
Applications
- Title(参考訳): 医用画像解析における敵攻撃と防御:方法と応用
- Authors: Junhao Dong, Junxi Chen, Xiaohua Xie, Jianhuang Lai, and Hao Chen
- Abstract要約: 医用画像解析における対人攻撃と防御の進歩に関する総合的な調査を報告する。
医療画像解析のための異なる種類の敵攻撃のための統一的理論的枠組みと防衛方法を提供する。
公正な比較のために、逆向きに堅牢な診断モデルのための新しいベンチマークを構築した。
- 参考スコア(独自算出の注目度): 57.206139366029646
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning techniques have achieved superior performance in computer-aided
medical image analysis, yet they are still vulnerable to imperceptible
adversarial attacks, resulting in potential misdiagnosis in clinical practice.
Oppositely, recent years have also witnessed remarkable progress in defense
against these tailored adversarial examples in deep medical diagnosis systems.
In this exposition, we present a comprehensive survey on recent advances in
adversarial attack and defense for medical image analysis with a novel taxonomy
in terms of the application scenario. We also provide a unified theoretical
framework for different types of adversarial attack and defense methods for
medical image analysis. For a fair comparison, we establish a new benchmark for
adversarially robust medical diagnosis models obtained by adversarial training
under various scenarios. To the best of our knowledge, this is the first survey
paper that provides a thorough evaluation of adversarially robust medical
diagnosis models. By analyzing qualitative and quantitative results, we
conclude this survey with a detailed discussion of current challenges for
adversarial attack and defense in medical image analysis systems to shed light
on future research directions.
- Abstract(参考訳): 深層学習技術は, コンピュータ支援画像解析において優れた性能を示しているが, 相変わらず脆弱であり, 臨床における誤診の可能性を秘めている。
近年では, 深部医療診断システムにおいて, これらの逆境に対する防御が顕著に進歩している。
本論では, 新たな分類法を応用シナリオとして, 対人攻撃の進展と医療画像解析の防御に関する総合的な調査を行う。
また,医療画像解析のための異なる種類の敵攻撃と防御方法のための統一的理論的枠組みも提供する。
公平な比較のために,様々なシナリオ下での対人訓練により得られた対人的堅牢な医療診断モデルのための新しいベンチマークを構築した。
我々の知る限りでは、逆向きに堅牢な医療診断モデルの徹底的な評価を提供する最初の調査論文である。
質的,定量的な結果を分析することで,医用画像解析システムにおける敵攻撃と防御の課題を解明し,今後の研究の方向性を明らかにした。
関連論文リスト
- Securing the Diagnosis of Medical Imaging: An In-depth Analysis of AI-Resistant Attacks [0.0]
機械学習分類器のインプットを意図的に生成することで、攻撃者が誤分類を引き起こすという一般的な知識である。
近年の議論は、医療画像解析技術に対する敵対的攻撃が可能であることを示唆している。
医療用DNNタスクが敵の攻撃に対してどれほど強いかを評価することが不可欠である。
論文 参考訳(メタデータ) (2024-08-01T07:37:27Z) - Out-of-distribution Detection in Medical Image Analysis: A survey [12.778646136644399]
コンピュータ支援診断は、ディープラーニングベースのコンピュータビジョン技術の発展の恩恵を受けている。
従来の教師付きディープラーニング手法は、テストサンプルがトレーニングデータと同じ分布から引き出されることを前提としている。
実際の臨床シナリオでは分布外のサンプルに遭遇し、深層学習に基づく医用画像解析タスクにおいてサイレント障害を引き起こす可能性がある。
論文 参考訳(メタデータ) (2024-04-28T18:51:32Z) - Exploring adversarial attacks in federated learning for medical imaging [1.604444445227806]
Federated Learningは、医療画像分析のためのプライバシー保護フレームワークを提供するが、敵の攻撃に対してシステムを公開している。
本稿では,このような攻撃に対する医療画像解析において,フェデレーション学習ネットワークの脆弱性を評価することを目的とする。
論文 参考訳(メタデータ) (2023-10-10T00:39:58Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Self-supervised learning methods and applications in medical imaging
analysis: A survey [0.0]
本稿では,医用画像解析分野における画像データへの自己教師付き学習アプローチの最先端研究の方向性について概説する。
この論文は、医療画像解析における自己教師型学習の分野における最新の研究の40点を取り上げ、その分野における最近のイノベーションの光を隠蔽することを目的としている。
論文 参考訳(メタデータ) (2021-09-17T17:01:42Z) - Semi-Supervised Variational Reasoning for Medical Dialogue Generation [70.838542865384]
医療対話生成には,患者の状態と医師の行動の2つの重要な特徴がある。
医療対話生成のためのエンドツーエンドの変分推論手法を提案する。
行動分類器と2つの推論検出器から構成される医師政策ネットワークは、拡張推論能力のために提案される。
論文 参考訳(メタデータ) (2021-05-13T04:14:35Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Defending against adversarial attacks on medical imaging AI system,
classification or detection? [18.92197034672677]
半スーパービジョン・ディバイザ・トレーニング(SSAT)と非教師付きディバイザ・ディテクト(UAD)に基づく新しい堅牢な医用画像AIフレームワークを提案する。
我々は、対戦型攻撃の多様な現実的な設定の下で、既存の敵防衛技術よりも堅牢な医用画像AIシステムの利点を実証する。
論文 参考訳(メタデータ) (2020-06-24T08:26:49Z) - A Thorough Comparison Study on Adversarial Attacks and Defenses for
Common Thorax Disease Classification in Chest X-rays [63.675522663422896]
胸部X線に対する各種対向攻撃法と防御法について検討した。
攻撃法と防御法は過度な反復と大きな摂動で性能が劣ることがわかった。
異なる摂動度に頑健な新しい防御法を提案する。
論文 参考訳(メタデータ) (2020-03-31T06:21:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。