論文の概要: Imperceptible Adversarial Examples by Spatial Chroma-Shift
- arxiv url: http://arxiv.org/abs/2108.02502v1
- Date: Thu, 5 Aug 2021 10:19:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-06 20:17:03.912418
- Title: Imperceptible Adversarial Examples by Spatial Chroma-Shift
- Title(参考訳): 空間クロマシフトによる知覚不能な逆行例
- Authors: Ayberk Aydin, Deniz Sen, Berat Tuna Karli, Oguz Hanoglu and Alptekin
Temizel
- Abstract要約: 本稿では,入力画像の色成分のみを変更して,逆例を生成する手法を提案する。
人間の視覚知覚研究は、これらの例がより自然に見え、しばしば元のものと区別できないことを証明している。
- 参考スコア(独自算出の注目度): 1.5749416770494706
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Neural Networks have been shown to be vulnerable to various kinds of
adversarial perturbations. In addition to widely studied additive noise based
perturbations, adversarial examples can also be created by applying a per pixel
spatial drift on input images. While spatial transformation based adversarial
examples look more natural to human observers due to absence of additive noise,
they still possess visible distortions caused by spatial transformations. Since
the human vision is more sensitive to the distortions in the luminance compared
to those in chrominance channels, which is one of the main ideas behind the
lossy visual multimedia compression standards, we propose a spatial
transformation based perturbation method to create adversarial examples by only
modifying the color components of an input image. While having competitive
fooling rates on CIFAR-10 and NIPS2017 Adversarial Learning Challenge datasets,
examples created with the proposed method have better scores with regards to
various perceptual quality metrics. Human visual perception studies validate
that the examples are more natural looking and often indistinguishable from
their original counterparts.
- Abstract(参考訳): ディープニューラルネットワークは、様々な種類の敵の摂動に弱いことが示されている。
広く研究されている付加ノイズベースの摂動に加えて、入力画像に1ピクセルあたりの空間ドリフトを適用することで、逆の例を作ることもできる。
空間変換に基づく対向的な例は、付加的な雑音がないために人間の観察者にとって自然に見えるが、空間変換によって引き起こされる可視歪みは今も残っている。
人間の視覚は、視覚的マルチメディア圧縮規格の欠落の背後にある主要な考え方の一つであるクロミナンスチャネルに比べて輝度の歪みに敏感であるため、入力画像の色成分だけを修正して、逆の例を作成するための空間変換に基づく摂動法を提案する。
CIFAR-10 と NIPS2017 Adversarial Learning Challenge データセットの競合的不正率を持つ一方で,提案手法を用いて作成した例では,様々な知覚的品質指標に関して,より良いスコアが得られた。
ヒトの視覚知覚研究は、この例がより自然な外観であり、しばしば元のものと区別できないことを検証している。
関連論文リスト
- Robust Network Learning via Inverse Scale Variational Sparsification [55.64935887249435]
時間連続な逆スケール空間の定式化において、逆スケールの変動スペーサー化フレームワークを導入する。
周波数ベースの手法とは異なり、我々の手法は小さな特徴を滑らかにすることでノイズを除去するだけでなく、ノイズを除去する。
各種騒音に対する頑健性の向上によるアプローチの有効性を示す。
論文 参考訳(メタデータ) (2024-09-27T03:17:35Z) - Transparency Distortion Robustness for SOTA Image Segmentation Tasks [4.1119273264193685]
本研究では,空間的に異なる歪みを持つ既存のデータセットを合成的に拡張する手法を提案する。
実験により, これらの歪み効果は, 最先端セグメンテーションモデルの性能を低下させることが示された。
論文 参考訳(メタデータ) (2024-05-21T15:30:25Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - Adversarial Image Generation by Spatial Transformation in Perceptual
Colorspaces [4.02487511510606]
ディープニューラルネットワークは敵の摂動に弱いことが知られている。
本研究では,空間変換を適用して,逆の例を生成する手法を提案する。
対象とするホワイトボックス攻撃において,提案手法は高い信頼性で,競争力のある不正行為率を得ることができる。
論文 参考訳(メタデータ) (2023-10-21T09:07:42Z) - Exploring Frequency Adversarial Attacks for Face Forgery Detection [59.10415109589605]
フェースフォージェリ検出器に対する周波数対向攻撃法を提案する。
また,メタラーニングの概念に触発されて,空間領域と周波数領域の両方で攻撃を行うハイブリッド逆攻撃を提案する。
論文 参考訳(メタデータ) (2022-03-29T15:34:13Z) - LTT-GAN: Looking Through Turbulence by Inverting GANs [86.25869403782957]
本稿では,よく訓練されたGANによってカプセル化された視覚的事前情報を利用した最初の乱流緩和手法を提案する。
視覚的先行性に基づき、周期的な文脈距離で復元された画像の同一性を維持することを学ぶことを提案する。
本手法は, 回復した結果の視覚的品質と顔認証精度の両方において, 先行技術よりも優れていた。
論文 参考訳(メタデータ) (2021-12-04T16:42:13Z) - GreedyFool: Multi-Factor Imperceptibility and Its Application to
Designing a Black-box Adversarial Attack [7.827575011634156]
敵対的な例は、人間の目では摂動が受容できない、よく設計された入力サンプルである。
本稿では,人間の眼の知覚に影響を及ぼす4つの要因を要約する。
本稿では,GreedyFoolと呼ばれる新たなブラックボックス攻撃を提案する。
論文 参考訳(メタデータ) (2020-10-14T07:45:06Z) - Encoding Robustness to Image Style via Adversarial Feature Perturbations [72.81911076841408]
我々は、画像画素ではなく特徴統計を直接摂動することで、頑健なモデルを生成することで、敵の訓練に適応する。
提案手法であるAdvBN(Adversarial Batch Normalization)は,トレーニング中に最悪の機能摂動を発生させる単一ネットワーク層である。
論文 参考訳(メタデータ) (2020-09-18T17:52:34Z) - Adversarial Semantic Data Augmentation for Human Pose Estimation [96.75411357541438]
本研究では,セマンティックデータ拡張法 (SDA) を提案する。
また,適応的セマンティックデータ拡張 (ASDA) を提案する。
最先端の結果は、挑戦的なベンチマークで得られます。
論文 参考訳(メタデータ) (2020-08-03T07:56:04Z) - AdvJND: Generating Adversarial Examples with Just Noticeable Difference [3.638233924421642]
例に小さな摂動を加えると、優れたパフォーマンスモデルが工芸品の例を誤って分類する。
我々のAdvJNDアルゴリズムが生成した逆例は、元の入力に類似した分布を生成する。
論文 参考訳(メタデータ) (2020-02-01T09:55:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。