論文の概要: The Butterfly Effect in Pathology: Exploring Security in Pathology Foundation Models
- arxiv url: http://arxiv.org/abs/2505.24141v1
- Date: Fri, 30 May 2025 02:23:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.73233
- Title: The Butterfly Effect in Pathology: Exploring Security in Pathology Foundation Models
- Title(参考訳): 病理学における蝶効果 : 病理基礎モデルのセキュリティを探る
- Authors: Jiashuai Liu, Yingjia Shang, Yingkang Zhan, Di Zhang, Yi Niu, Dong Wei, Xian Wu, Zeyu Gao, Chen Li, Yefeng Zheng,
- Abstract要約: 本研究は,対人攻撃に対する全スライド画像(WSI)解析のための病理基盤モデルの安全性に関する最初の体系的な研究である。
具体的には,グローバルな影響を伴うテキスト局所摂動の原理を導入し,ラベルフリー攻撃フレームワークを提案する。
本手法では,4つの古典的ホワイトボックス攻撃法を改訂し,WSIの特性に基づいて摂動予算を再定義する。
- 参考スコア(独自算出の注目度): 41.0531631366338
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With the widespread adoption of pathology foundation models in both research and clinical decision support systems, exploring their security has become a critical concern. However, despite their growing impact, the vulnerability of these models to adversarial attacks remains largely unexplored. In this work, we present the first systematic investigation into the security of pathology foundation models for whole slide image~(WSI) analysis against adversarial attacks. Specifically, we introduce the principle of \textit{local perturbation with global impact} and propose a label-free attack framework that operates without requiring access to downstream task labels. Under this attack framework, we revise four classical white-box attack methods and redefine the perturbation budget based on the characteristics of WSI. We conduct comprehensive experiments on three representative pathology foundation models across five datasets and six downstream tasks. Despite modifying only 0.1\% of patches per slide with imperceptible noise, our attack leads to downstream accuracy degradation that can reach up to 20\% in the worst cases. Furthermore, we analyze key factors that influence attack success, explore the relationship between patch-level vulnerability and semantic content, and conduct a preliminary investigation into potential defence strategies. These findings lay the groundwork for future research on the adversarial robustness and reliable deployment of pathology foundation models. Our code is publicly available at: https://github.com/Jiashuai-Liu-hmos/Attack-WSI-pathology-foundation-models.
- Abstract(参考訳): 研究および臨床意思決定支援システムに病理基盤モデルが広く採用されていることから、その安全性を探求することが重要な関心事となっている。
しかし、その影響が増大しているにもかかわらず、敵の攻撃に対するこれらのモデルの脆弱性はほとんど未解明のままである。
本研究は, 対人攻撃に対する全スライド画像〜(WSI)解析における病理基盤モデルの安全性に関する最初の体系的な研究である。
具体的には,大域的影響を伴うローカル摂動の原理を導入し,下流のタスクラベルへのアクセスを必要とせずに動作するラベルフリーアタックフレームワークを提案する。
本手法では,4つの古典的ホワイトボックス攻撃法を改訂し,WSIの特性に基づいて摂動予算を再定義する。
5つのデータセットと6つの下流タスクにまたがる3つの代表的な病理基盤モデルに関する総合的な実験を行った。
1スライドあたり0.1\%のパッチしか認識できないが、我々の攻撃は下流の精度を低下させ、最悪のケースでは最大20\%に達する。
さらに、攻撃の成功に影響を与える重要な要因を分析し、パッチレベルの脆弱性とセマンティックコンテンツとの関係を調べ、潜在的防衛戦略に関する予備的な調査を行う。
これらの知見は, 今後, 対向的ロバスト性, 信頼性の高い病理基盤モデルの展開に関する研究の基盤となる。
私たちのコードは、https://github.com/Jiashuai-Liu-hmos/Attack-WSI-pathology-foundation-modelsで公開されています。
関連論文リスト
- On the Lack of Robustness of Binary Function Similarity Systems [13.842698930725625]
我々は、最先端の機械学習モデルの敵攻撃に対するレジリエンスを評価する。
我々は、この攻撃が全てのモデルの妥協に成功し、問題設定に応じて57.06%と95.81%の平均的な攻撃成功率を達成することを実証した。
論文 参考訳(メタデータ) (2024-12-05T13:54:53Z) - Towards Physical World Backdoor Attacks against Skeleton Action Recognition [21.261855773907616]
スケルトン行動認識(SAR)は、ヒト骨格構造の効率的な表現において大きな関心を集めている。
近年の研究では、SARモデル、特に敵の攻撃に対する脆弱性に対するセキュリティ上の懸念が高まっている。
SARに対する物理的バックドアアタックの最初の調査であるPhysical Skeleton Backdoor Attacks (PSBA)を紹介した。
論文 参考訳(メタデータ) (2024-08-16T11:29:33Z) - Model X-ray:Detecting Backdoored Models via Decision Boundary [62.675297418960355]
バックドア攻撃はディープニューラルネットワーク(DNN)に重大な脆弱性をもたらす
図形化された2次元(2次元)決定境界の解析に基づく新しいバックドア検出手法であるモデルX線を提案する。
提案手法は,クリーンサンプルが支配する意思決定領域とラベル分布の集中度に着目した2つの戦略を含む。
論文 参考訳(メタデータ) (2024-02-27T12:42:07Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [55.38113802311365]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - Now You See It, Now You Dont: Adversarial Vulnerabilities in
Computational Pathology [2.1577322127603407]
病理画像における腫瘍パッチの分類の高精度なモデルが,最小限の摂動で容易に攻撃可能であることを示す。
解析結果から,高い成功率と低摂動エネルギーで,特定の入力画像に対して単一インスタンスのホワイトボックス攻撃を発生できることが示唆された。
本研究は, 対人攻撃の摂動エネルギー, 臨床的意義の形態的構造, 訓練された病理医による受容性, 深層学習モデルを用いて得られた塩分濃度マップとの関係を系統的に解析した。
論文 参考訳(メタデータ) (2021-06-14T14:33:24Z) - No Need to Know Physics: Resilience of Process-based Model-free Anomaly
Detection for Industrial Control Systems [95.54151664013011]
本稿では,システムの物理的特性に反する逆スプーフ信号を生成するための新しい枠組みを提案する。
トップセキュリティカンファレンスで公表された4つの異常検知器を分析した。
論文 参考訳(メタデータ) (2020-12-07T11:02:44Z) - Towards Understanding the Adversarial Vulnerability of Skeleton-based
Action Recognition [133.35968094967626]
骨格に基づく行動認識は、動的状況への強い適応性から注目を集めている。
ディープラーニング技術の助けを借りて、かなり進歩し、現在、良識のある環境で約90%の精度を達成している。
異なる対角的環境下での骨格に基づく行動認識の脆弱性に関する研究はいまだ研究されていない。
論文 参考訳(メタデータ) (2020-05-14T17:12:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。