論文の概要: Natural Color Fool: Towards Boosting Black-box Unrestricted Attacks
- arxiv url: http://arxiv.org/abs/2210.02041v1
- Date: Wed, 5 Oct 2022 06:24:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 12:59:50.700715
- Title: Natural Color Fool: Towards Boosting Black-box Unrestricted Attacks
- Title(参考訳): ナチュラルカラーフール:ブラックボックスの制限なし攻撃を強化
- Authors: Shengming Yuan, Qilong Zhang, Lianli Gao, Yaya Cheng, Jingkuan Song
- Abstract要約: 本研究では, 画像品質を損なうことなく, 反対例の転写性を向上するNatural Color Fool (NCF) を提案する。
その結果、NCFは、通常訓練されたモデルを騙す場合の15.0%$sim$32.9%、防御手法を回避する場合の10.0%$sim$25.3%で、最先端のアプローチよりも優れていた。
- 参考スコア(独自算出の注目度): 68.48271396073156
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unrestricted color attacks, which manipulate semantically meaningful color of
an image, have shown their stealthiness and success in fooling both human eyes
and deep neural networks. However, current works usually sacrifice the
flexibility of the uncontrolled setting to ensure the naturalness of
adversarial examples. As a result, the black-box attack performance of these
methods is limited. To boost transferability of adversarial examples without
damaging image quality, we propose a novel Natural Color Fool (NCF) which is
guided by realistic color distributions sampled from a publicly available
dataset and optimized by our neighborhood search and initialization reset. By
conducting extensive experiments and visualizations, we convincingly
demonstrate the effectiveness of our proposed method. Notably, on average,
results show that our NCF can outperform state-of-the-art approaches by
15.0%$\sim$32.9% for fooling normally trained models and 10.0%$\sim$25.3% for
evading defense methods. Our code is available at
https://github.com/ylhz/Natural-Color-Fool.
- Abstract(参考訳): 画像の意味的な色を操作できる無制限のカラー攻撃は、人間の目と深層ニューラルネットワークの両方を騙すことに成功した。
しかし、現在の作品は通常、敵対的な例の自然性を保証するために制御されていない設定の柔軟性を犠牲にしている。
その結果、これらの手法のブラックボックス攻撃性能は限られている。
画像品質を損なうことなく、逆行例の転送性を高めるために、パブリックデータセットからサンプリングされ、近隣探索と初期化リセットにより最適化されたリアルな色分布によって導かれる、新しい自然色フール(ncf)を提案する。
広範囲な実験と可視化を行い,提案手法の有効性を実証した。
特に,我々のNCFは,通常訓練されたモデルを騙す場合の15.0%$\sim$32.9%,防御手法を回避する場合の10.0%$\sim$25.3%よりも優れていた。
私たちのコードはhttps://github.com/ylhz/natural-color-foolで利用可能です。
関連論文リスト
- CNCA: Toward Customizable and Natural Generation of Adversarial Camouflage for Vehicle Detectors [19.334642862951537]
既訓練拡散モデルを利用したCNCA(Customizable and Natural Camouflage Attack)を提案する。
本手法は,攻撃性能を維持しつつ,自然かつカスタマイズ可能な対向カモフラージュを生成することができる。
論文 参考訳(メタデータ) (2024-09-26T15:41:18Z) - Breaking Free: How to Hack Safety Guardrails in Black-Box Diffusion Models! [52.0855711767075]
EvoSeedは、フォトリアリスティックな自然対向サンプルを生成するための進化戦略に基づくアルゴリズムフレームワークである。
我々は,CMA-ESを用いて初期種ベクトルの探索を最適化し,条件付き拡散モデルで処理すると,自然逆数サンプルをモデルで誤分類する。
実験の結果, 生成した対向画像は画像品質が高く, 安全分類器を通過させることで有害なコンテンツを生成する懸念が高まっていることがわかった。
論文 参考訳(メタデータ) (2024-02-07T09:39:29Z) - Incorporating Ensemble and Transfer Learning For An End-To-End
Auto-Colorized Image Detection Model [0.0]
本稿では,移動学習とアンサンブル学習の利点を組み合わせた新たな手法を提案する。
提案したモデルは、94.55%から99.13%の精度で有望な結果を示す。
論文 参考訳(メタデータ) (2023-09-25T19:22:57Z) - Diffusion-Based Adversarial Sample Generation for Improved Stealthiness
and Controllability [62.105715985563656]
そこで本研究では,現実的な対向サンプルを生成するための拡散型射影勾配 Descent (Diff-PGD) という新しいフレームワークを提案する。
我々のフレームワークは、デジタルアタック、物理世界アタック、スタイルベースのアタックなど、特定のタスクに簡単にカスタマイズできる。
論文 参考訳(メタデータ) (2023-05-25T21:51:23Z) - Content-based Unrestricted Adversarial Attack [53.181920529225906]
本稿では,コンテンツベース非制限攻撃という新たな非制限攻撃フレームワークを提案する。
自然像を表す低次元多様体を利用することで、像を多様体上に写像し、その逆方向に沿って最適化する。
論文 参考訳(メタデータ) (2023-05-18T02:57:43Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z) - Creating Artificial Modalities to Solve RGB Liveness [79.9255035557979]
我々は,スプーフ検出のためのエンドツーエンドパイプラインと組み合わせて,ランクプーリングと光流の2種類の人工変換を導入する。
提案手法は, 最大のクロスセクニティ対面アンチスプーフィングデータセットCASIA-SURF CeFA (RGB) の最先端化を実現する。
論文 参考訳(メタデータ) (2020-06-29T13:19:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。