論文の概要: Adversarial Robustness Analysis of Vision-Language Models in Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2505.02971v1
- Date: Mon, 05 May 2025 18:54:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.105372
- Title: Adversarial Robustness Analysis of Vision-Language Models in Medical Image Segmentation
- Title(参考訳): 医用画像セグメンテーションにおける視覚言語モデルの対向ロバスト性解析
- Authors: Anjila Budathoki, Manish Dhakal,
- Abstract要約: アドリアックはコンピュータビジョンと視覚言語モデルのためにかなり研究されている。
2次元医用画像に対する対角攻撃に対する視覚言語セグメンテーションモデル(VLSM)の堅牢性を検討した。
以上の結果から,DSCとIoUスコアは有意に低下した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial attacks have been fairly explored for computer vision and vision-language models. However, the avenue of adversarial attack for the vision language segmentation models (VLSMs) is still under-explored, especially for medical image analysis. Thus, we have investigated the robustness of VLSMs against adversarial attacks for 2D medical images with different modalities with radiology, photography, and endoscopy. The main idea of this project was to assess the robustness of the fine-tuned VLSMs specially in the medical domain setting to address the high risk scenario. First, we have fine-tuned pre-trained VLSMs for medical image segmentation with adapters. Then, we have employed adversarial attacks -- projected gradient descent (PGD) and fast gradient sign method (FGSM) -- on that fine-tuned model to determine its robustness against adversaries. We have reported models' performance decline to analyze the adversaries' impact. The results exhibit significant drops in the DSC and IoU scores after the introduction of these adversaries. Furthermore, we also explored universal perturbation but were not able to find for the medical images. \footnote{https://github.com/anjilab/secure-private-ai}
- Abstract(参考訳): 敵攻撃はコンピュータビジョンと視覚言語モデルのためにかなり研究されている。
しかし,視覚言語セグメンテーションモデル (VLSMs) に対する敵対的攻撃の道は,特に医用画像解析においてまだ未調査である。
そこで我々は, 放射線学, 写真学, 内視鏡学の異なる2次元医用画像に対して, VLSMの対向攻撃に対する堅牢性について検討した。
このプロジェクトの主な目的は、リスクの高いシナリオに対処するために、医療領域における細調整VLSMの堅牢性を評価することである。
まず,アダプターを用いた医用画像セグメンテーションのための訓練済みVLSMについて検討した。
そこで我々は,その微調整モデルに,投影勾配降下法 (PGD) と高速勾配標識法 (FGSM) を併用して,敵に対する強靭性を判定した。
我々は、敵の影響を分析するために、モデルの性能低下を報告した。
以上の結果から,DSCとIoUスコアは有意に低下した。
また, 広汎な摂動も検討したが, 医用画像は見つからなかった。
\footnote{https://github.com/anjilab/secure-private-ai}
関連論文リスト
- Hierarchical Self-Supervised Adversarial Training for Robust Vision Models in Histopathology [64.46054930696052]
敵対的攻撃は、医療のような重要な分野におけるビジョンモデルに重大な課題をもたらす。
既存の自己監督型逆行訓練手法は、病理像の階層構造を見落としている。
本稿では,これらの特性を活かした階層型自己監督適応訓練(HSAT)を提案する。
論文 参考訳(メタデータ) (2025-03-13T17:59:47Z) - Effective and Efficient Adversarial Detection for Vision-Language Models via A Single Vector [97.92369017531038]
Diverse hArmful Responses (RADAR) を用いた新しい laRge-scale Adervsarial 画像データセットを構築した。
そこで我々は,視覚言語モデル (VLM) の隠れ状態から抽出した1つのベクトルを利用して,入力中の良質な画像に対して対向画像を検出する,新しいiN時間埋め込み型AdveRSarial Image Detectction (NEARSIDE) 法を開発した。
論文 参考訳(メタデータ) (2024-10-30T10:33:10Z) - Adversarial-Robust Transfer Learning for Medical Imaging via Domain
Assimilation [17.46080957271494]
医用画像が公開されていないため、現代のアルゴリズムは、大量の自然画像に基づいて事前訓練されたモデルに依存するようになった。
自然画像と医療画像の間に重要なエムドメインの相違があり、AIモデルは敵の攻撃に対するエムの脆弱性を高める。
本稿では,テクスチャと色適応を伝達学習に導入する Em ドメイン同化手法を提案する。
論文 参考訳(メタデータ) (2024-02-25T06:39:15Z) - MITS-GAN: Safeguarding Medical Imaging from Tampering with Generative Adversarial Networks [48.686454485328895]
本研究では,医療画像の改ざんを防止する新しいアプローチであるMITS-GANを紹介する。
このアプローチは、人間の目には知覚できない微調整された摂動を導入することで、攻撃者のCT-GANアーキテクチャの出力を妨害する。
CTスキャンによる実験結果から,MITS-GANの優れた性能が確認された。
論文 参考訳(メタデータ) (2024-01-17T22:30:41Z) - Demonstration of an Adversarial Attack Against a Multimodal Vision Language Model for Pathology Imaging [1.279856000554626]
本研究では,視覚言語基盤モデルであるPLIPモデルの脆弱性を標的攻撃下で調査する。
我々は、意図的に誤分類を誘発するために、PGD(Projected Gradient Descent)の逆方向摂動攻撃を用いる。
この研究は、AIモデルの信頼性を確保するための堅牢な防御の必要性を強調している。
論文 参考訳(メタデータ) (2024-01-04T22:49:15Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Survey on Adversarial Attack and Defense for Medical Image Analysis: Methods and Challenges [64.63744409431001]
医療画像解析における敵攻撃・防衛の進歩に関する総合的な調査を報告する。
公正な比較のために、逆向きに堅牢な診断モデルのための新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2023-03-24T16:38:58Z) - FIBA: Frequency-Injection based Backdoor Attack in Medical Image
Analysis [82.2511780233828]
本稿では,様々な医療画像解析タスクにおいて,攻撃を行うことのできる新しい周波数注入型バックドアアタック法(FIBA)を提案する。
具体的には、FIBAは、両方の画像のスペクトル振幅を線形に組み合わせることで、トリガー画像の低周波情報を有毒画像に注入できる周波数領域のトリガー関数を利用する。
論文 参考訳(メタデータ) (2021-12-02T11:52:17Z) - Towards Robust General Medical Image Segmentation [2.127049691404299]
一般医用画像分割システムのロバスト性を評価するための新しい枠組みを提案する。
ROG(RObust Generic Medical Image segmentation)のための新しい格子アーキテクチャを提案する。
以上の結果から,ROGはMSDの様々なタスクにまたがる一般化が可能であり,高度な敵攻撃下での最先端技術を上回ることが示唆された。
論文 参考訳(メタデータ) (2021-07-09T07:17:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。