論文の概要: On Evaluating Adversarial Robustness of Volumetric Medical Segmentation Models
- arxiv url: http://arxiv.org/abs/2406.08486v2
- Date: Mon, 2 Sep 2024 19:04:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-04 17:51:09.098660
- Title: On Evaluating Adversarial Robustness of Volumetric Medical Segmentation Models
- Title(参考訳): ボリューム・メディカル・セグメンテーション・モデルにおける対向ロバスト性の評価について
- Authors: Hashmat Shadab Malik, Numan Saeed, Asif Hanif, Muzammal Naseer, Mohammad Yaqub, Salman Khan, Fahad Shahbaz Khan,
- Abstract要約: 体積医学セグメンテーションモデルは、臓器および腫瘍ベースのセグメンテーションタスクにおいて大きな成功を収めた。
敵の攻撃に対するその脆弱性はほとんど解明されていない。
このことは、既存のモデルの堅牢性を調べることの重要性を浮き彫りにしている。
- 参考スコア(独自算出の注目度): 59.45628259925441
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Volumetric medical segmentation models have achieved significant success on organ and tumor-based segmentation tasks in recent years. However, their vulnerability to adversarial attacks remains largely unexplored, raising serious concerns regarding the real-world deployment of tools employing such models in the healthcare sector. This underscores the importance of investigating the robustness of existing models. In this context, our work aims to empirically examine the adversarial robustness across current volumetric segmentation architectures, encompassing Convolutional, Transformer, and Mamba-based models. We extend this investigation across four volumetric segmentation datasets, evaluating robustness under both white box and black box adversarial attacks. Overall, we observe that while both pixel and frequency-based attacks perform reasonably well under \emph{white box} setting, the latter performs significantly better under transfer-based black box attacks. Across our experiments, we observe transformer-based models show higher robustness than convolution-based models with Mamba-based models being the most vulnerable. Additionally, we show that large-scale training of volumetric segmentation models improves the model's robustness against adversarial attacks. The code and robust models are available at https://github.com/HashmatShadab/Robustness-of-Volumetric-Medical-Segmentation-Models.
- Abstract(参考訳): 近年, 臓器および腫瘍ベースの分節作業において, 体積医学的分節モデルが大きな成功を収めている。
しかし、敵の攻撃に対するその脆弱性は未解明のままであり、医療分野におけるそのようなモデルを用いたツールの現実的な展開に関して深刻な懸念が持ち上がっている。
このことは、既存のモデルの堅牢性を調べることの重要性を浮き彫りにしている。
本研究の目的は,コンボリューショナル,トランスフォーマー,マンバをベースとしたモデルを含む,現在のボリュームセグメンテーションアーキテクチャにおける対角的ロバスト性を実証的に検証することである。
我々はこの調査を4つのボリュームセグメンテーションデータセットに拡張し、ホワイトボックスとブラックボックスの双方の攻撃下で堅牢性を評価する。
全体としては、ピクセルベースと周波数ベースの両方の攻撃は \emph{white box} 設定で合理的に動作するが、後者は転送ベースブラックボックス攻撃では著しく改善されている。
本実験では, コンボリューションモデルよりもトランスフォーマーモデルの方が高いロバスト性を示し, マンバモデルが最も脆弱であることを示す。
さらに,ボリュームセグメンテーションモデルの大規模トレーニングにより,敵攻撃に対するモデルの堅牢性が向上することを示す。
コードとロバストモデルはhttps://github.com/HashmatShadab/Robustness-of-Volumetric-Medical-Segmentation-Modelsで公開されている。
関連論文リスト
- Weakly supervised deep learning model with size constraint for prostate cancer detection in multiparametric MRI and generalization to unseen domains [0.90668179713299]
本モデルでは, 完全教師付きベースラインモデルにより, オンパー性能が向上することを示す。
また、未確認データドメインでテストした場合、完全に教師付きモデルと弱い教師付きモデルの両方のパフォーマンス低下も観察する。
論文 参考訳(メタデータ) (2024-11-04T12:24:33Z) - UU-Mamba: Uncertainty-aware U-Mamba for Cardiovascular Segmentation [26.621625716575746]
本稿では,U-Mambaアーキテクチャの拡張であるU-Mambaモデルを紹介する。
Sharpness-Aware Minimization (SAM) を取り入れたモデルにより、損失景観におけるフラットなミニマをターゲットとした一般化が促進される。
我々は、ImageCAS(冠状動脈)とAorta(大動脈枝とゾーン)データセットの新たな試行を行い、より複雑なセグメンテーション課題を提示した。
論文 参考訳(メタデータ) (2024-09-22T03:22:06Z) - Frequency Domain Adversarial Training for Robust Volumetric Medical
Segmentation [111.61781272232646]
医療などの重要な応用において、ディープラーニングモデルの堅牢性を確保することが不可欠である。
本稿では,ボリューム医療画像分割モデルに対する3次元周波数領域対逆攻撃について述べる。
論文 参考訳(メタデータ) (2023-07-14T10:50:43Z) - On Evaluating the Adversarial Robustness of Semantic Segmentation Models [0.0]
敵の摂動に対する防御手段として、多くの敵の訓練アプローチが提案されている。
私たちは、前回の作業で堅牢であると主張するモデルが、実際にはまったく堅牢ではないことを初めて示しています。
次に, 強攻撃群においても, 合理的に堅牢なモデルを生成する, 単純な対向訓練アルゴリズムを評価する。
論文 参考訳(メタデータ) (2023-06-25T11:45:08Z) - Towards Reliable Evaluation and Fast Training of Robust Semantic Segmentation Models [47.03411822627386]
我々は,mIoUとmIoUの精度の異なる指標を最小化する,いくつかの問題固有の新規攻撃を提案する。
驚くべきことに、セマンティックセグメンテーションモデルに対する既存の敵の訓練の試みは、弱かったり、全く損なわれなかったりする。
最近提案された堅牢なImageNetバックボーンを用いて,PASCAL-VOCとADE20kの最大6倍のトレーニング時間を持つ,対向的に堅牢なセマンティックセマンティックセマンティクスモデルを得ることができることを示す。
論文 参考訳(メタデータ) (2023-06-22T14:56:06Z) - Clustering Effect of (Linearized) Adversarial Robust Models [60.25668525218051]
本稿では, 敵の強靭性に対する新たな理解を提案し, ドメイン適応や頑健性向上といったタスクに適用する。
提案したクラスタリング戦略の合理性と優越性を実験的に評価した。
論文 参考訳(メタデータ) (2021-11-25T05:51:03Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - Two Sides of the Same Coin: White-box and Black-box Attacks for Transfer
Learning [60.784641458579124]
ホワイトボックスFGSM攻撃によるモデルロバスト性を効果的に向上することを示す。
また,移動学習モデルに対するブラックボックス攻撃手法を提案する。
ホワイトボックス攻撃とブラックボックス攻撃の双方の効果を系統的に評価するために,ソースモデルからターゲットモデルへの変換可能性の評価手法を提案する。
論文 参考訳(メタデータ) (2020-08-25T15:04:32Z) - Orthogonal Deep Models As Defense Against Black-Box Attacks [71.23669614195195]
攻撃者が標的モデルに類似したモデルを用いて攻撃を発生させるブラックボックス設定における深層モデル固有の弱点について検討する。
本稿では,深部モデルの内部表現を他のモデルに直交させる新しい勾配正規化手法を提案する。
様々な大規模モデルにおいて,本手法の有効性を検証する。
論文 参考訳(メタデータ) (2020-06-26T08:29:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。