論文の概要: Exploring Adversarial Watermarking in Transformer-Based Models: Transferability and Robustness Against Defense Mechanism for Medical Images
- arxiv url: http://arxiv.org/abs/2506.06389v1
- Date: Thu, 05 Jun 2025 15:03:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.250803
- Title: Exploring Adversarial Watermarking in Transformer-Based Models: Transferability and Robustness Against Defense Mechanism for Medical Images
- Title(参考訳): 変圧器モデルにおける逆方向透かしの探索:医療画像に対する防御機構に対する伝達性とロバスト性
- Authors: Rifat Sadik, Tanvir Rahman, Arpan Bhattacharjee, Bikash Chandra Halder, Ismail Hossain,
- Abstract要約: ViT(Vision Transformers)は、コンピュータビジョンで成功したトランスフォーマーベースのモデルである。
本稿では,医用画像に対する ViTs の受容性について検討する。
- 参考スコア(独自算出の注目度): 0.6817102408452475
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning models have shown remarkable success in dermatological image analysis, offering potential for automated skin disease diagnosis. Previously, convolutional neural network(CNN) based architectures have achieved immense popularity and success in computer vision (CV) based task like skin image recognition, generation and video analysis. But with the emergence of transformer based models, CV tasks are now are nowadays carrying out using these models. Vision Transformers (ViTs) is such a transformer-based models that have shown success in computer vision. It uses self-attention mechanisms to achieve state-of-the-art performance across various tasks. However, their reliance on global attention mechanisms makes them susceptible to adversarial perturbations. This paper aims to investigate the susceptibility of ViTs for medical images to adversarial watermarking-a method that adds so-called imperceptible perturbations in order to fool models. By generating adversarial watermarks through Projected Gradient Descent (PGD), we examine the transferability of such attacks to CNNs and analyze the performance defense mechanism -- adversarial training. Results indicate that while performance is not compromised for clean images, ViTs certainly become much more vulnerable to adversarial attacks: an accuracy drop of as low as 27.6%. Nevertheless, adversarial training raises it up to 90.0%.
- Abstract(参考訳): 深層学習モデルは皮膚画像解析において顕著な成功を収めており、皮膚疾患の自動診断の可能性を秘めている。
これまで、畳み込みニューラルネットワーク(CNN)ベースのアーキテクチャは、スキン画像認識、生成、ビデオ分析といったコンピュータビジョン(CV)ベースのタスクで大きな人気と成功を収めてきた。
しかし、トランスフォーマーベースのモデルが出現すると、CVタスクは現在ではこれらのモデルを使用して実行されています。
ViT(Vision Transformers)は、コンピュータビジョンで成功したトランスフォーマーベースのモデルである。
自己認識機構を使用して、さまざまなタスクで最先端のパフォーマンスを実現する。
しかし、その国際的注意機構への依存は、敵の摂動に影響を受けやすい。
本稿では, 医療画像に対するViTの受容性について検討し, モデルを騙すために, いわゆる知覚不能摂動を付加する手法を提案する。
PGD (Projected Gradient Descent) を用いて, 敵の透かしを生成することにより, CNNへの攻撃の伝達可能性を調べ, 敵の防御機構を解析する。
結果は、クリーンな画像では性能が損なわれていないが、ViTは敵の攻撃に対してより脆弱になり、精度は27.6%にまで低下したことを示している。
それにもかかわらず、敵の訓練は90.0%まで上昇する。
関連論文リスト
- Mechanistic Understandings of Representation Vulnerabilities and Engineering Robust Vision Transformers [1.1187085721899017]
視覚変換器(ViT)の既知の表現脆弱性の源泉について検討し、知覚的に同一の画像が全く異なる表現を持つことを示す。
我々は,早期に脆弱な神経細胞を戦略的に中和する新しい防御機構であるNeuroShield-ViTを開発し,対向効果のカスケードを防止する。
我々の研究結果は、視力変換器が敵の攻撃に対して堅牢性を高めるための有望なアプローチを提供しながら、敵の効果がViT層を通してどのように伝播するかに新たな光を当てた。
論文 参考訳(メタデータ) (2025-02-07T05:58:16Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - S-E Pipeline: A Vision Transformer (ViT) based Resilient Classification Pipeline for Medical Imaging Against Adversarial Attacks [4.295229451607423]
Vision Transformer (ViT) は、医用画像における正確な疾患診断の自動化において広く普及している。
ViTは、致命的な疾患の故意の誤分類につながることによって、診断プロセスを妨げる可能性のある敵の攻撃に弱いままである。
本稿では,複数の前処理ステップを実行する新しい画像分類パイプライン,すなわちS-E Pipelineを提案する。
論文 参考訳(メタデータ) (2024-07-23T17:20:40Z) - Adversarial-Robust Transfer Learning for Medical Imaging via Domain
Assimilation [17.46080957271494]
医用画像が公開されていないため、現代のアルゴリズムは、大量の自然画像に基づいて事前訓練されたモデルに依存するようになった。
自然画像と医療画像の間に重要なエムドメインの相違があり、AIモデルは敵の攻撃に対するエムの脆弱性を高める。
本稿では,テクスチャと色適応を伝達学習に導入する Em ドメイン同化手法を提案する。
論文 参考訳(メタデータ) (2024-02-25T06:39:15Z) - MedViT: A Robust Vision Transformer for Generalized Medical Image
Classification [4.471084427623774]
我々は,CNNの局所性と視覚変換器のグローバル接続性を備えた,頑健で効率的なCNN-Transformerハイブリッドモデルを提案する。
提案したハイブリッドモデルは,MedMNIST-2Dデータセットの大規模コレクションに関する最先端の研究と比較して,高い堅牢性と一般化能力を示す。
論文 参考訳(メタデータ) (2023-02-19T02:55:45Z) - Self-Ensembling Vision Transformer (SEViT) for Robust Medical Image
Classification [4.843654097048771]
ビジョントランスフォーマー(ViT)は、医療画像における様々なコンピュータビジョンタスクのために、畳み込みニューラルネットワーク(CNN)を置き換えるために競合している。
近年の研究では、ViTsはそのような攻撃の影響を受けやすく、攻撃下での大幅な性能劣化が報告されている。
本稿では,対戦型攻撃の存在下でのViTの堅牢性を高めるための,新たな自己認識手法を提案する。
論文 参考訳(メタデータ) (2022-08-04T19:02:24Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - Understanding The Robustness in Vision Transformers [140.1090560977082]
自己注意は、改善された中レベルの表現を通して堅牢性を促進する。
我々は、この能力を強化するために、フルアテンショナルネットワーク(FAN)のファミリーを提案する。
我々のモデルは、76.8Mパラメータを持つImageNet-1kおよびImageNet-C上で、最先端の87.1%の精度と35.8%のmCEを達成する。
論文 参考訳(メタデータ) (2022-04-26T17:16:32Z) - Artificial Fingerprinting for Generative Models: Rooting Deepfake
Attribution in Training Data [64.65952078807086]
光現実性画像生成は、GAN(Generative Adversarial Network)のブレークスルーにより、新たな品質レベルに達した。
しかし、このようなディープフェイクのダークサイド、すなわち生成されたメディアの悪意ある使用は、視覚的誤報に関する懸念を提起する。
我々は,モデルに人工指紋を導入することによって,深度検出の積極的な,持続可能なソリューションを模索する。
論文 参考訳(メタデータ) (2020-07-16T16:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。