論文の概要: Quaternion-Hadamard Network: A Novel Defense Against Adversarial Attacks with a New Dataset
- arxiv url: http://arxiv.org/abs/2502.10452v1
- Date: Wed, 12 Feb 2025 00:13:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:08:48.722084
- Title: Quaternion-Hadamard Network: A Novel Defense Against Adversarial Attacks with a New Dataset
- Title(参考訳): Quaternion-Hadamard Network: 新たなデータセットによる敵攻撃に対する新たな防御
- Authors: Vladimir Frants, Sos Agaian,
- Abstract要約: 本稿では,悪天候下での降雪・除雪のために設計された深層学習モデルの脆弱性に対処する。
本稿では,第4次アダマールネットワーク(QHNet)を用いた1次ホワイトボックス攻撃に対するモデルに依存しない防御法を提案する。
QHNetは、これらのブロックをエンコーダ・デコーダアーキテクチャに組み込み、機能改善によって強化され、対向ノイズを効果的に中和する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This paper addresses the vulnerability of deep-learning models designed for rain, snow, and haze removal. Despite enhancing image quality in adverse weather, these models are susceptible to adversarial attacks that compromise their effectiveness. Traditional defenses such as adversarial training and model distillation often require extensive retraining, making them costly and impractical for real-world deployment. While denoising and super-resolution techniques can aid image classification models, they impose high computational demands and introduce visual artifacts that hinder image processing tasks. We propose a model-agnostic defense against first-order white-box adversarial attacks using the Quaternion-Hadamard Network (QHNet) to tackle these challenges. White-box attacks are particularly difficult to defend against since attackers have full access to the model's architecture, weights, and training procedures. Our defense introduces the Quaternion Hadamard Denoising Convolutional Block (QHDCB) and the Quaternion Denoising Residual Block (QDRB), leveraging polynomial thresholding. QHNet incorporates these blocks within an encoder-decoder architecture, enhanced by feature refinement, to effectively neutralize adversarial noise. Additionally, we introduce the Adversarial Weather Conditions Vision Dataset (AWCVD), created by applying first-order gradient attacks on state-of-the-art weather removal techniques in scenarios involving haze, rain streaks, and snow. Using PSNR and SSIM metrics, we demonstrate that QHNet significantly enhances the robustness of low-level computer vision models against adversarial attacks compared with state-of-the-art denoising and super-resolution techniques. The source code and dataset will be released alongside the final version of this paper.
- Abstract(参考訳): 本稿では,降雨,雪,ヘイズ除去のために設計されたディープラーニングモデルの脆弱性に対処する。
悪天候下では画質が向上するが、これらのモデルはその効果を損なう敵攻撃の影響を受けやすい。
敵の訓練やモデル蒸留のような伝統的な防衛は、しばしば大規模な再訓練を必要とし、現実の展開には費用がかかり実用的ではない。
デノイングと超高解像度技術は画像分類モデルに役立つが、高い計算要求を課し、画像処理タスクを妨げる視覚的アーティファクトを導入する。
本稿では,これらの課題に対処するために,Queternion-Hadamard Network (QHNet) を用いた一階のホワイトボックス攻撃に対するモデルに依存しない防御法を提案する。
ホワイトボックス攻撃は、攻撃者がモデルのアーキテクチャ、重み、訓練手順に完全にアクセスできるため、特に防御が難しい。
本稿では,QHDCB(Queternion Hadamard Denoising Convolutional Block)とQDRB(Queternion Denoising Residual Block)を導入する。
QHNetは、これらのブロックをエンコーダ・デコーダアーキテクチャに組み込み、機能改善によって強化され、対向ノイズを効果的に中和する。
さらに,干ばつ,雨天,雪などのシナリオにおいて,最先端の気象除去技術に一階勾配攻撃を適用して作成した,逆向き気象予報データセット(Adversarial Weather Conditions Vision Dataset, AWCVD)を紹介する。
PSNRとSSIMのメトリクスを用いて、QHNetは、最先端のデノゲーション技術や超高解像度技術と比較して、敵攻撃に対する低レベルコンピュータビジョンモデルの堅牢性を大幅に向上することを示した。
ソースコードとデータセットは、この論文の最終バージョンと一緒にリリースされます。
関連論文リスト
- Adversarial Machine Learning: Attacking and Safeguarding Image Datasets [0.0]
本稿では、敵攻撃に対する畳み込みニューラルネットワーク(CNN)の脆弱性について検討し、その保護方法を検討する。
CNNは、最も一般的な画像データセットの4つに実装され、高いベースライン精度を実現した。
対戦訓練後のモデルに対するロバスト性はほとんどのレベルが達成されているが、敵の摂動に対するモデルの性能にはまだ若干の損失があるようだ。
論文 参考訳(メタデータ) (2025-01-31T22:32:38Z) - AdvIRL: Reinforcement Learning-Based Adversarial Attacks on 3D NeRF Models [1.7205106391379021]
textitAdvIRLは、多様な3D変換の下で頑健な対向ノイズを生成する。
私たちのアプローチは、小さなオブジェクト(バナナなど)から大きな環境(灯台など)まで、幅広い場面で検証されています。
論文 参考訳(メタデータ) (2024-12-18T01:01:30Z) - iBA: Backdoor Attack on 3D Point Cloud via Reconstructing Itself [5.007492246056274]
MirrorAttackは、新しい効果的な3Dバックドア攻撃法である。
自動エンコーダでクリーンポイントの雲を再構築するだけでトリガーを埋め込む。
我々は,防衛技術の介入により,様々な種類の犠牲者モデルに対して最先端のASRを実現する。
論文 参考訳(メタデータ) (2024-03-09T09:15:37Z) - Isolation and Induction: Training Robust Deep Neural Networks against
Model Stealing Attacks [51.51023951695014]
既存のモデル盗難防衛は、被害者の後部確率に偽りの摂動を加え、攻撃者を誤解させる。
本稿では,モデルステルス防衛のための新規かつ効果的なトレーニングフレームワークである分離誘導(InI)を提案する。
モデルの精度を損なうモデル予測に摂動を加えるのとは対照的に、我々はモデルを訓練して、盗むクエリに対して非形式的なアウトプットを生成する。
論文 参考訳(メタデータ) (2023-08-02T05:54:01Z) - Practical No-box Adversarial Attacks with Training-free Hybrid Image Transformation [94.30136898739448]
ノンボックス脅威モデルの下では, テキストbftraining-free adversarial perturbationの存在を示す。
低レベルの特徴を持つ高周波成分 (HFC) ドメインは, 主に周波数成分の操作によって画像を攻撃する。
我々の手法は、主流の転送ベースのブラックボックス攻撃と競合する。
論文 参考訳(メタデータ) (2022-03-09T09:51:00Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - AdvHaze: Adversarial Haze Attack [19.744435173861785]
現実世界の風景に共通する現象であるヘイズに基づく新たな敵対攻撃法を紹介します。
本手法は, 大気散乱モデルに基づく画像に, 高い現実性で, 潜在的に逆転するハゼを合成することができる。
提案手法は,高い成功率を達成し,ベースラインと異なる分類モデル間での転送性が向上することを示す。
論文 参考訳(メタデータ) (2021-04-28T09:52:25Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z) - Towards Query-Efficient Black-Box Adversary with Zeroth-Order Natural
Gradient Descent [92.4348499398224]
ブラックボックスの敵攻撃手法は、実用性や単純さから特に注目されている。
敵攻撃を設計するためのゼロ階自然勾配降下法(ZO-NGD)を提案する。
ZO-NGDは、最先端攻撃法と比較して、モデルクエリの複雑さが大幅に低い。
論文 参考訳(メタデータ) (2020-02-18T21:48:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。