論文の概要: Adversarial Image Color Transformations in Explicit Color Filter Space
- arxiv url: http://arxiv.org/abs/2011.06690v3
- Date: Fri, 16 Jun 2023 10:19:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-19 18:43:45.835447
- Title: Adversarial Image Color Transformations in Explicit Color Filter Space
- Title(参考訳): 明示的なカラーフィルタ空間における逆画像色変換
- Authors: Zhengyu Zhao and Zhuoran Liu and Martha Larson
- Abstract要約: 逆色フィルタ(AdvCF)は、単純な色フィルタのパラメータ空間の勾配情報に最適化された新しい色変換攻撃である。
本稿では,AdvCFが画像の受容性と効率の両面において,最先端の人間解釈可能な色変換攻撃よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 5.682107851677069
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep Neural Networks have been shown to be vulnerable to adversarial images.
Conventional attacks strive for indistinguishable adversarial images with
strictly restricted perturbations. Recently, researchers have moved to explore
distinguishable yet non-suspicious adversarial images and demonstrated that
color transformation attacks are effective. In this work, we propose
Adversarial Color Filter (AdvCF), a novel color transformation attack that is
optimized with gradient information in the parameter space of a simple color
filter. In particular, our color filter space is explicitly specified so that
we are able to provide a systematic analysis of model robustness against
adversarial color transformations, from both the attack and defense
perspectives. In contrast, existing color transformation attacks do not offer
the opportunity for systematic analysis due to the lack of such an explicit
space. We further demonstrate the effectiveness of our AdvCF in fooling image
classifiers and also compare it with other color transformation attacks
regarding their robustness to defenses and image acceptability through an
extensive user study. We also highlight the human-interpretability of AdvCF and
show its superiority over the state-of-the-art human-interpretable color
transformation attack on both image acceptability and efficiency. Additional
results provide interesting new insights into model robustness against AdvCF in
another three visual tasks.
- Abstract(参考訳): ディープニューラルネットワークは敵画像に弱いことが示されている。
従来の攻撃は、厳格に制限された摂動を伴う不可分な敵対的イメージを狙う。
近年、研究者は区別できるが目立たない敵対的な画像を探究し、色変換攻撃が効果的であることを実証している。
本研究では,単純なカラーフィルタのパラメータ空間における勾配情報に最適化された新しいカラー変換攻撃であるAdvCFを提案する。
特に,我々のカラーフィルタ空間は,攻撃面と防御面の両方の観点から,逆色変換に対するモデルロバストネスの体系的解析を行うことができるよう,明示的に規定されている。
対照的に、既存の色変換攻撃は、そのような明示的な空間がないため、体系的な分析の機会を提供しない。
さらに, 画像分類器を騙す際のadvcfの有効性を実証するとともに, 防御に対するロバスト性や画像受容性に関する他の色変換攻撃と比較し, 広範なユーザ調査を行った。
また、advcfの人間解釈可能性を強調し、画像受容性と効率性の両方において、最先端の人間解釈可能な色変換攻撃よりもその優越性を示す。
別の3つの視覚的なタスクにおいて、AdvCFに対するモデル堅牢性に関する興味深い新しい洞察を提供する。
関連論文リスト
- TranSegPGD: Improving Transferability of Adversarial Examples on
Semantic Segmentation [62.954089681629206]
そこで本研究では, セグメンテーションにおける2段階の対角攻撃戦略を提案し, セグメンテーションにおける対角攻撃の伝達性を向上させる。
提案手法は,最先端の性能を達成できる。
論文 参考訳(メタデータ) (2023-12-03T00:48:33Z) - Color Equivariant Convolutional Networks [50.655443383582124]
CNNは、偶然に記録された条件によって導入された色の変化の間にデータ不均衡がある場合、苦労する。
カラースペクトル間の形状特徴共有を可能にする新しいディープラーニングビルディングブロックであるカラー等変畳み込み(CEConvs)を提案する。
CEConvsの利点は、様々なタスクに対するダウンストリーム性能と、列車-テストの分散シフトを含む色の変化に対するロバスト性の改善である。
論文 参考訳(メタデータ) (2023-10-30T09:18:49Z) - IRAD: Implicit Representation-driven Image Resampling against Adversarial Attacks [16.577595936609665]
本稿では,画像再サンプリングという,敵対的攻撃に対する新たなアプローチを提案する。
画像再サンプリングは、幾何学的変換によって指定されたシーンの再調整や再レンダリングの過程をシミュレートして、離散画像を新しい画像に変換する。
本手法は,クリーンな画像の精度を維持しつつ,多様な深層モデルの様々な攻撃に対する対角的堅牢性を著しく向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T11:19:32Z) - Content-based Unrestricted Adversarial Attack [53.181920529225906]
本稿では,コンテンツベース非制限攻撃という新たな非制限攻撃フレームワークを提案する。
自然像を表す低次元多様体を利用することで、像を多様体上に写像し、その逆方向に沿って最適化する。
論文 参考訳(メタデータ) (2023-05-18T02:57:43Z) - Cross-Modal Transferable Adversarial Attacks from Images to Videos [82.0745476838865]
近年の研究では、一方のホワイトボックスモデルで手作りされた敵の例は、他のブラックボックスモデルを攻撃するために使用できることが示されている。
本稿では,イメージ・トゥ・ビデオ(I2V)攻撃と呼ばれる,シンプルだが効果的なクロスモーダル・アタック手法を提案する。
I2Vは、事前訓練された画像モデルの特徴と良質な例とのコサイン類似性を最小化して、対向フレームを生成する。
論文 参考訳(メタデータ) (2021-12-10T08:19:03Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - Perception Improvement for Free: Exploring Imperceptible Black-box
Adversarial Attacks on Image Classification [27.23874129994179]
ホワイトボックスの敵攻撃は、特に大きな画像の場合、小さな摂動を伴うニューラルネットワークを騙すことができる。
逆行性摂動を成功させることは、特にトランスファーベースのブラックボックス逆行攻撃では困難である。
本稿では,心理的知覚モデルに基づく対向画像の生成による構造認識型対向攻撃を提案する。
論文 参考訳(メタデータ) (2020-10-30T07:17:12Z) - Creating Artificial Modalities to Solve RGB Liveness [79.9255035557979]
我々は,スプーフ検出のためのエンドツーエンドパイプラインと組み合わせて,ランクプーリングと光流の2種類の人工変換を導入する。
提案手法は, 最大のクロスセクニティ対面アンチスプーフィングデータセットCASIA-SURF CeFA (RGB) の最先端化を実現する。
論文 参考訳(メタデータ) (2020-06-29T13:19:22Z) - Towards Feature Space Adversarial Attack [18.874224858723494]
本稿では,画像分類のためのニューラルネットに対する新たな敵攻撃を提案する。
私たちの攻撃は、抽象的な特徴、具体的にはスタイルを表す特徴の摂動に焦点を当てています。
我々の攻撃は、最先端の攻撃よりも自然に見える敵のサンプルを生成できることを示す。
論文 参考訳(メタデータ) (2020-04-26T13:56:31Z) - Adversarial Perturbations Prevail in the Y-Channel of the YCbCr Color
Space [43.49959098842923]
ホワイトボックス攻撃では、RGB画像上で動作する深いモデルに対して、逆方向の摂動が一般的に学習される。
本稿では, YCbCr空間のYチャネルにおいて, 対向摂動が広まることを示す。
そこで本研究では,敵画像に対する防御法を提案する。
論文 参考訳(メタデータ) (2020-02-25T02:41:42Z) - Adversarial Color Enhancement: Generating Unrestricted Adversarial
Images by Optimizing a Color Filter [5.682107851677069]
本稿では,ニューラルネットワークを誤分類に用いた逆効果を生成するために,カラーフィルタを用いた画像強調手法を提案する。
提案手法であるACE(Adversarial Color Enhancement)は,勾配降下によるカラーフィルタの最適化により,非制限逆画像を生成する。
論文 参考訳(メタデータ) (2020-02-03T20:44:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。