論文の概要: On enhancing the robustness of Vision Transformers: Defensive Diffusion
- arxiv url: http://arxiv.org/abs/2305.08031v1
- Date: Sun, 14 May 2023 00:17:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 18:15:02.304389
- Title: On enhancing the robustness of Vision Transformers: Defensive Diffusion
- Title(参考訳): 視覚変換器の堅牢性向上について:防御拡散
- Authors: Raza Imam, Muhammad Huzaifa, and Mohammed El-Amine Azz
- Abstract要約: SOTAビジョンモデルであるViTは、大量の患者データをトレーニングに頼っている。
敵はViTの脆弱性を利用して機密情報を抽出し、患者のプライバシーを侵害する可能性がある。
この研究は、医療応用におけるViTの信頼性と信頼性を確保するために、これらの脆弱性に対処する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Privacy and confidentiality of medical data are of utmost importance in
healthcare settings. ViTs, the SOTA vision model, rely on large amounts of
patient data for training, which raises concerns about data security and the
potential for unauthorized access. Adversaries may exploit vulnerabilities in
ViTs to extract sensitive patient information and compromising patient privacy.
This work address these vulnerabilities to ensure the trustworthiness and
reliability of ViTs in medical applications. In this work, we introduced a
defensive diffusion technique as an adversarial purifier to eliminate
adversarial noise introduced by attackers in the original image. By utilizing
the denoising capabilities of the diffusion model, we employ a reverse
diffusion process to effectively eliminate the adversarial noise from the
attack sample, resulting in a cleaner image that is then fed into the ViT
blocks. Our findings demonstrate the effectiveness of the diffusion model in
eliminating attack-agnostic adversarial noise from images. Additionally, we
propose combining knowledge distillation with our framework to obtain a
lightweight student model that is both computationally efficient and robust
against gray box attacks. Comparison of our method with a SOTA baseline method,
SEViT, shows that our work is able to outperform the baseline. Extensive
experiments conducted on a publicly available Tuberculosis X-ray dataset
validate the computational efficiency and improved robustness achieved by our
proposed architecture.
- Abstract(参考訳): 医療データのプライバシーと機密性は、医療設定において最も重要である。
sotaビジョンモデルであるvitsは、トレーニングのために大量の患者データに依存しており、データセキュリティと不正アクセスの可能性を懸念している。
敵はViTの脆弱性を利用して機密情報を抽出し、患者のプライバシーを侵害する可能性がある。
この研究は、医療応用におけるViTの信頼性と信頼性を確保するために、これらの脆弱性に対処する。
本研究では,元画像中の攻撃者による対向ノイズを除去する対向浄化器として,防御拡散手法を導入した。
拡散モデルのデノナイズ機能を利用することで、逆拡散法を用いて、攻撃サンプルから対向ノイズを効果的に除去し、その結果、よりクリーンな画像がViTブロックに供給される。
本研究は,画像からのアタック非依存な敵対的ノイズ除去における拡散モデルの有効性を示す。
さらに,知識蒸留とフレームワークを組み合わせることで,グレーボックス攻撃に対する計算効率と堅牢性を両立する軽量な学生モデルを実現することを提案する。
提案手法とSOTAベースライン法SEViTとの比較により,本手法がベースラインより優れていることを示す。
結核x線データを用いた広範な実験により,提案手法による計算効率と頑健性が検証された。
関連論文リスト
- StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - S-E Pipeline: A Vision Transformer (ViT) based Resilient Classification Pipeline for Medical Imaging Against Adversarial Attacks [4.295229451607423]
Vision Transformer (ViT) は、医用画像における正確な疾患診断の自動化において広く普及している。
ViTは、致命的な疾患の故意の誤分類につながることによって、診断プロセスを妨げる可能性のある敵の攻撃に弱いままである。
本稿では,複数の前処理ステップを実行する新しい画像分類パイプライン,すなわちS-E Pipelineを提案する。
論文 参考訳(メタデータ) (2024-07-23T17:20:40Z) - Remembering Everything Makes You Vulnerable: A Limelight on Machine Unlearning for Personalized Healthcare Sector [0.873811641236639]
この論文は、特にECGモニタリングの文脈において、パーソナライズされた医療モデルの脆弱性に対処することを目的としている。
本稿では,機械学習モデルに対する露出データポイントの影響を軽減するために,"Machine Unlearning" というアプローチを提案する。
論文 参考訳(メタデータ) (2024-07-05T15:38:36Z) - Light-weight Fine-tuning Method for Defending Adversarial Noise in Pre-trained Medical Vision-Language Models [25.33637232484219]
微調整事前学習型視覚言語モデル(VLM)は、医用画像とテキスト描写相乗効果において顕著な能力を示した。
多くの事前トレーニングデータセットは、患者プライバシの懸念によって制限されており、下流のパフォーマンスに悪影響を及ぼす可能性のあるノイズを含む可能性がある。
本稿では,敵の攻撃を効果的に防御し,微調整時に上流の騒音の影響を是正する手法であるRAN(Creify Adversarial noise)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-02T23:48:43Z) - Watch the Watcher! Backdoor Attacks on Security-Enhancing Diffusion Models [65.30406788716104]
本研究では,セキュリティ強化拡散モデルの脆弱性について検討する。
これらのモデルは、シンプルで効果的なバックドア攻撃であるDIFF2に非常に感受性があることを実証する。
ケーススタディでは、DIFF2は、ベンチマークデータセットとモデル間で、パーフィケーション後の精度と認定精度の両方を著しく削減できることを示している。
論文 参考訳(メタデータ) (2024-06-14T02:39:43Z) - DPMesh: Exploiting Diffusion Prior for Occluded Human Mesh Recovery [71.6345505427213]
DPMeshは、人間のメッシュリカバリを排除した革新的なフレームワークである。
これは、事前訓練されたテキスト・ツー・イメージ拡散モデルに埋め込まれた対象構造と空間的関係について、より深い拡散に乗じる。
論文 参考訳(メタデータ) (2024-04-01T18:59:13Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - SEDA: Self-Ensembling ViT with Defensive Distillation and Adversarial
Training for robust Chest X-rays Classification [0.8812173669205372]
ViT(Vision Transformer)は、敵、プライバシ、シークレットの攻撃に対して、医療環境における信頼性に対する深刻な懸念を引き起こす。
防衛蒸留・逆行訓練(SEDA)を用いた自己組立型ViTを提案する。
SEDAは、効率的なCNNブロックを用いて、中間 ViT ブロックから抽出した特徴表現から様々なレベルの抽象的な空間的特徴を学習する。
論文 参考訳(メタデータ) (2023-08-15T16:40:46Z) - Unlearnable Examples for Diffusion Models: Protect Data from Unauthorized Exploitation [25.55296442023984]
本研究では,不正な利用から画像を保護するために,Unlearnable Diffusion Perturbationを提案する。
この成果は、AI生成コンテンツに対するプライバシーと著作権の保護に寄与するため、現実世界のシナリオにおいて重要な意味を持つ。
論文 参考訳(メタデータ) (2023-06-02T20:19:19Z) - Guided Diffusion Model for Adversarial Purification [103.4596751105955]
敵攻撃は、様々なアルゴリズムやフレームワークでディープニューラルネットワーク(DNN)を妨害する。
本稿では,GDMP ( Guided diffusion model for purification) と呼ばれる新しい精製法を提案する。
様々なデータセットにわたる包括的実験において,提案したGDMPは,敵対的攻撃によって引き起こされた摂動を浅い範囲に減少させることを示した。
論文 参考訳(メタデータ) (2022-05-30T10:11:15Z) - Towards Adversarially Robust Deep Image Denoising [199.2458715635285]
本研究は,ディープ・イメージ・デノイザ(DID)の対角的ロバスト性について系統的に検討する。
本稿では,観測に基づくゼロ平均アタック(sc ObsAtk)という新たな敵攻撃を提案する。
DIDを頑健化するために,DIDと非対向雑音データとを併用したハイブリッド対向訓練(sc HAT)を提案する。
論文 参考訳(メタデータ) (2022-01-12T10:23:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。