論文の概要: Brain Tumor Classifiers Under Attack: Robustness of ResNet Variants Against Transferable FGSM and PGD Attacks
- arxiv url: http://arxiv.org/abs/2602.11646v1
- Date: Thu, 12 Feb 2026 06:58:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.686156
- Title: Brain Tumor Classifiers Under Attack: Robustness of ResNet Variants Against Transferable FGSM and PGD Attacks
- Title(参考訳): 脳腫瘍の分類 : 移植可能なFGSMおよびPGD攻撃に対するResNet変数のロバスト性
- Authors: Ryan Deem, Garrett Goodman, Waqas Majeed, Md Abdullah Al Hafiz Khan, Michail S. Alexiou,
- Abstract要約: 敵攻撃に対するResNetアーキテクチャの感受性とレジリエンスについて検討する。
BrainNeXtモデルはブラックボックス攻撃に対する高い堅牢性を示す。
BrainNetとDilationモデルは、特にPGDの下で、より高いイテレーションステップと$$の値を持つ攻撃に対して、より脆弱である。
- 参考スコア(独自算出の注目度): 0.5219568203653523
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial robustness in deep learning models for brain tumor classification remains an underexplored yet critical challenge, particularly for clinical deployment scenarios involving MRI data. In this work, we investigate the susceptibility and resilience of several ResNet-based architectures, referred to as BrainNet, BrainNeXt and DilationNet, against gradient-based adversarial attacks, namely FGSM and PGD. These models, based on ResNet, ResNeXt, and dilated ResNet variants respectively, are evaluated across three preprocessing configurations (i) full-sized augmented, (ii) shrunk augmented and (iii) shrunk non-augmented MRI datasets. Our experiments reveal that BrainNeXt models exhibit the highest robustness to black-box attacks, likely due to their increased cardinality, though they produce weaker transferable adversarial samples. In contrast, BrainNet and Dilation models are more vulnerable to attacks from each other, especially under PGD with higher iteration steps and $α$ values. Notably, shrunk and non-augmented data significantly reduce model resilience, even when the untampered test accuracy remains high, highlighting a key trade-off between input resolution and adversarial vulnerability. These results underscore the importance of jointly evaluating classification performance and adversarial robustness for reliable real-world deployment in brain MRI analysis.
- Abstract(参考訳): 脳腫瘍分類のための深層学習モデルの相反する堅牢性は、MRIデータを含む臨床展開シナリオにおいて、未発見ながら重要な課題である。
本稿では,複数のResNetアーキテクチャ(BrainNet,BrainNeXt,DilationNet)の,勾配に基づく敵攻撃(FGSM,PGD)に対する感受性とレジリエンスについて検討する。
これらのモデルはそれぞれResNet、ResNeXt、拡張ResNetに基づいて、3つの前処理構成で評価される。
(i)フルサイズの拡張型
(ii)強化・縮小
(iii) 強化されていないMRIデータセットを縮小する。
実験の結果,BrainNeXtモデルはブラックボックス攻撃に対して高い堅牢性を示すことが明らかとなった。
対照的に、BrainNetとDilationモデルは、特にPGDの下では、より高いイテレーションステップと$α$の値を持つ攻撃に対して、より脆弱である。
特に、スランクデータと非拡張データは、未修正のテスト精度が高いままであっても、モデルのレジリエンスを著しく低下させ、入力解像度と敵の脆弱性の間の重要なトレードオフを浮き彫りにする。
これらの結果は、脳MRI解析における信頼性の高い実世界展開において、分類性能と敵対的堅牢性を共同評価することの重要性を浮き彫りにした。
関連論文リスト
- BMDS-Net: A Bayesian Multi-Modal Deep Supervision Network for Robust Brain Tumor Segmentation [21.538098924595754]
BMDS-Netは,簡易な測定基準よりも臨床の堅牢性と信頼性を優先する統合フレームワークである。
まず,Zero-Init Multimodal Conmodal Fusion (MMCF)モジュールとResidual-Gated Deep Decoder Supervision (DDS)機構を統合することで,ロバストな決定論的バックボーンを構築する。
第2に,ネットワークを確率予測器に変換するメモリ効率のよいベイズ微調整戦略を導入し,ボクセル的不確実性マップを提供する。
第三に、BraTS 2021データセットに関する包括的な実験は、BMDS-Netが競争精度を維持するだけでなく、競争力も維持していることを示した。
論文 参考訳(メタデータ) (2026-01-24T16:06:43Z) - Trustworthy Longitudinal Brain MRI Completion: A Deformation-Based Approach with KAN-Enhanced Diffusion Model [17.79398900814243]
縦断的脳MRIは、寿命の研究には不可欠であるが、高い摂食率は、しばしば欠落データにつながる。
深層生成モデルは研究されてきたが、ほとんどは画像強度に頼っている。
我々は,コンモゴロフ・アルノルドネットワーク(KAN)を拡張した拡散モデルであるDF-DiffComを紹介した。
論文 参考訳(メタデータ) (2026-01-14T15:41:40Z) - Adapting HFMCA to Graph Data: Self-Supervised Learning for Generalizable fMRI Representations [57.054499278843856]
機能的磁気共鳴画像(fMRI)解析は、データセットのサイズが限られ、研究間でのドメインの変動が原因で大きな課題に直面している。
コンピュータビジョンにインスパイアされた従来の自己教師付き学習手法は、正と負のサンプルペアに依存することが多い。
本稿では,最近開発された階層関数最大相関アルゴリズム(HFMCA)をグラフ構造fMRIデータに適用することを提案する。
論文 参考訳(メタデータ) (2025-10-05T12:35:01Z) - Towards Evaluating the Robustness of Visual State Space Models [63.14954591606638]
視覚状態空間モデル(VSSM)は視覚知覚タスクにおいて顕著な性能を示した。
しかし、自然と敵対的な摂動の下での頑丈さは依然として重要な懸念事項である。
様々な摂動シナリオ下でのVSSMの頑健さを総合的に評価する。
論文 参考訳(メタデータ) (2024-06-13T17:59:44Z) - On Evaluating Adversarial Robustness of Volumetric Medical Segmentation Models [59.45628259925441]
体積医学セグメンテーションモデルは、臓器および腫瘍ベースのセグメンテーションタスクにおいて大きな成功を収めた。
敵の攻撃に対するその脆弱性はほとんど解明されていない。
このことは、既存のモデルの堅牢性を調べることの重要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-06-12T17:59:42Z) - Feature robustness and sex differences in medical imaging: a case study
in MRI-based Alzheimer's disease detection [1.7616042687330637]
我々はADNI MRIデータセットの2つの分類方式を比較した。
訓練データセットの性構成に対する男女試験対象者のモデル性能の強い依存は見つからない。
論文 参考訳(メタデータ) (2022-04-04T17:37:54Z) - Pruning in the Face of Adversaries [0.0]
ニューラルネットワークのプルーニングがL-0,L-2,L-infinity攻撃に対する対向的ロバスト性に及ぼす影響を評価する。
その結果,ニューラルネットワークのプルーニングと対向ロバスト性は相互に排他的ではないことが確認された。
分析を敵のシナリオに付加的な仮定を取り入れた状況にまで拡張し、状況によって異なる戦略が最適であることを示す。
論文 参考訳(メタデータ) (2021-08-19T09:06:16Z) - DFENet: A Novel Dimension Fusion Edge Guided Network for Brain MRI
Segmentation [0.0]
本稿では,2次元CNNと3次元CNNの特徴を融合させることにより,これらの要件を満たす新しいDFENetを提案する。
提案手法は, 既存の方法よりも頑健で正確であり, バイオメディカルな応用に頼ることができる。
論文 参考訳(メタデータ) (2021-05-17T15:43:59Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。