論文の概要: Watertox: The Art of Simplicity in Universal Attacks A Cross-Model Framework for Robust Adversarial Generation
- arxiv url: http://arxiv.org/abs/2412.15924v1
- Date: Fri, 20 Dec 2024 14:17:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-23 16:24:29.448721
- Title: Watertox: The Art of Simplicity in Universal Attacks A Cross-Model Framework for Robust Adversarial Generation
- Title(参考訳): Watertox: ユニバーサルアタックにおけるシンプルさのアート - ロバストな逆生成のためのクロスモデルフレームワーク
- Authors: Zhenghao Gao, Shengjie Xu, Meixi Chen, Fangyao Zhao,
- Abstract要約: ウォータートックス(Watertox)は、アーキテクチャの多様性と精度制御による摂動を通じて、優れた効果を発揮するエレガントな敵攻撃フレームワークである。
Watertoxは、ビジュアルセキュリティシステムとCAPTCHA生成に将来的な応用が期待できる、敵の方法論における重要な進歩である。
- 参考スコア(独自算出の注目度): 4.956066467858057
- License:
- Abstract: Contemporary adversarial attack methods face significant limitations in cross-model transferability and practical applicability. We present Watertox, an elegant adversarial attack framework achieving remarkable effectiveness through architectural diversity and precision-controlled perturbations. Our two-stage Fast Gradient Sign Method combines uniform baseline perturbations ($\epsilon_1 = 0.1$) with targeted enhancements ($\epsilon_2 = 0.4$). The framework leverages an ensemble of complementary architectures, from VGG to ConvNeXt, synthesizing diverse perspectives through an innovative voting mechanism. Against state-of-the-art architectures, Watertox reduces model accuracy from 70.6% to 16.0%, with zero-shot attacks achieving up to 98.8% accuracy reduction against unseen architectures. These results establish Watertox as a significant advancement in adversarial methodologies, with promising applications in visual security systems and CAPTCHA generation.
- Abstract(参考訳): 現代の敵攻撃法は、クロスモデル転送可能性と実用性に大きな限界に直面している。
本稿では, アーキテクチャの多様性と精度制御による摂動を通じて, 顕著な効果を達成できるエレガントな敵攻撃フレームワークであるWatertoxを紹介する。
私たちの2段階のFast Gradient Sign Methodは、均一なベースラインの摂動(\epsilon_1 = 0.1$)とターゲットの強化(\epsilon_2 = 0.4$)を組み合わせています。
このフレームワークは、VGGからConvNeXtまでの補完的なアーキテクチャの集合を利用して、革新的な投票機構を通じて様々な視点を合成する。
最先端のアーキテクチャに対して、Watertoxはモデル精度を70.6%から16.0%に下げ、ゼロショット攻撃は目に見えないアーキテクチャに対して98.8%まで精度を下げる。
これらの結果から、Watertoxは、視覚セキュリティシステムやCAPTCHA生成に有望な応用を期待して、敵の方法論の大幅な進歩として確立されている。
関連論文リスト
- A Hybrid Defense Strategy for Boosting Adversarial Robustness in Vision-Language Models [9.304845676825584]
本稿では,複数の攻撃戦略と高度な機械学習技術を統合した,新たな敵訓練フレームワークを提案する。
CIFAR-10 や CIFAR-100 などの実世界のデータセットで行った実験により,提案手法がモデルロバスト性を大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-10-18T23:47:46Z) - MMAD-Purify: A Precision-Optimized Framework for Efficient and Scalable Multi-Modal Attacks [21.227398434694724]
我々は,攻撃フレームワークの有効性を高めるために,精度最適化ノイズ予測器を組み込んだ革新的なフレームワークを導入する。
当社のフレームワークは,マルチモーダル攻撃に対する最先端のソリューションを提供し,レイテンシの低減を実現している。
本研究の枠組みは, 浄化防御に対する優れた伝達性と堅牢性を実現することを実証する。
論文 参考訳(メタデータ) (2024-10-17T23:52:39Z) - Iterative Window Mean Filter: Thwarting Diffusion-based Adversarial Purification [26.875621618432504]
顔認証システムは、敵攻撃のような目立たない摂動に敏感なため、信頼性が低い。
我々はIWMF (Iterative Window Mean Filter) と呼ばれる,新しい非深層学習に基づく画像フィルタを開発した。
我々は,IWMFと拡散モデルを統合した,IWMF-Diffという逆浄化のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-20T09:19:43Z) - Improving the Robustness of Object Detection and Classification AI models against Adversarial Patch Attacks [2.963101656293054]
我々は攻撃手法を解析し、堅牢な防御手法を提案する。
我々は,物体形状,テクスチャ,位置を利用する逆パッチ攻撃を用いて,モデル信頼度を20%以上下げることに成功した。
敵攻撃にも拘わらず,本手法はモデルレジリエンスを著しく向上させ,高精度かつ信頼性の高いローカライゼーションを実現している。
論文 参考訳(メタデータ) (2024-03-04T13:32:48Z) - One-for-All: Bridge the Gap Between Heterogeneous Architectures in
Knowledge Distillation [69.65734716679925]
知識蒸留は,教師が指導する学習手法を通じて,モデル性能を向上させる上で,極めて効果的な手法であることが証明されている。
既存の蒸留法のほとんどは、教師と生徒のモデルが同じモデルファミリーに属するという前提で設計されている。
我々は, ヘテロジニアスアーキテクチャ間の蒸留性能を大幅に向上させる, OFA-KDという, 単純で効果的な一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元
論文 参考訳(メタデータ) (2023-10-30T11:13:02Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - REX: Rapid Exploration and eXploitation for AI Agents [103.68453326880456]
本稿では、REXと呼ばれるAIエージェントのための高速探索およびeXploitationのための改良されたアプローチを提案する。
REXは追加の報酬層を導入し、アッパー信頼境界(UCB)スコアに似た概念を統合し、より堅牢で効率的なAIエージェントのパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-07-18T04:26:33Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - ROPUST: Improving Robustness through Fine-tuning with Photonic
Processors and Synthetic Gradients [65.52888259961803]
ROPUSTは、頑健な事前学習モデルを活用し、その堅牢性を高めるためのシンプルで効率的な手法である。
我々は,ロバストベンチの4つの攻撃に対して,9つの異なるモデルを用いて実験を行った。
ROPUSTは,最先端の位相探索技術でも有効であることを示す。
論文 参考訳(メタデータ) (2021-07-06T12:03:36Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。