論文の概要: Decamouflage: A Framework to Detect Image-Scaling Attacks on
Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2010.03735v1
- Date: Thu, 8 Oct 2020 02:30:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 12:26:04.002755
- Title: Decamouflage: A Framework to Detect Image-Scaling Attacks on
Convolutional Neural Networks
- Title(参考訳): Decamouflage:畳み込みニューラルネットワーク上のイメージスケーリング攻撃を検出するフレームワーク
- Authors: Bedeuro Kim, Alsharif Abuadbba, Yansong Gao, Yifeng Zheng, Muhammad
Ejaz Ahmed, Hyoungshick Kim, Surya Nepal
- Abstract要約: 画像スケーリング機能は、画像スケーリング攻撃と呼ばれる攻撃を実行するために逆行的に悪用される可能性がある。
この研究は、デカモフラージュ(Decamouflage)と呼ばれるイメージスケーリング攻撃検出フレームワークを提示している。
デカモフラージュは、(1)再スケーリング、(2)フィルタリング/プール、(3)ステガナリシスの3つの独立した検出方法から構成される。
- 参考スコア(独自算出の注目度): 35.30705616146299
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As an essential processing step in computer vision applications, image
resizing or scaling, more specifically downsampling, has to be applied before
feeding a normally large image into a convolutional neural network (CNN) model
because CNN models typically take small fixed-size images as inputs. However,
image scaling functions could be adversarially abused to perform a newly
revealed attack called image-scaling attack, which can affect a wide range of
computer vision applications building upon image-scaling functions.
This work presents an image-scaling attack detection framework, termed as
Decamouflage. Decamouflage consists of three independent detection methods: (1)
rescaling, (2) filtering/pooling, and (3) steganalysis. While each of these
three methods is efficient standalone, they can work in an ensemble manner not
only to improve the detection accuracy but also to harden potential adaptive
attacks. Decamouflage has a pre-determined detection threshold that is generic.
More precisely, as we have validated, the threshold determined from one dataset
is also applicable to other different datasets. Extensive experiments show that
Decamouflage achieves detection accuracy of 99.9\% and 99.8\% in the white-box
(with the knowledge of attack algorithms) and the black-box (without the
knowledge of attack algorithms) settings, respectively. To corroborate the
efficiency of Decamouflage, we have also measured its run-time overhead on a
personal PC with an i5 CPU and found that Decamouflage can detect image-scaling
attacks in milliseconds. Overall, Decamouflage can accurately detect image
scaling attacks in both white-box and black-box settings with acceptable
run-time overhead.
- Abstract(参考訳): コンピュータビジョンアプリケーションにおける重要な処理ステップとして、画像リサイズまたはスケーリング、具体的にはダウンサンプリングは、通常大きな画像を畳み込みニューラルネットワーク(CNN)モデルに入力する前に適用する必要がある。
しかし、画像スケーリング機能は、画像スケーリング機能上に構築された幅広いコンピュータビジョンアプリケーションに影響を与えるイメージスケーリングアタックと呼ばれる新たな攻撃を実行するために、敵対的に悪用される可能性がある。
本稿では,デカモフラージュと呼ばれる画像スケーリング攻撃検出フレームワークを提案する。
デカモフラージュは、(1)再スケーリング、(2)フィルタリング/プール、(3)ステガナリシスの3つの独立した検出方法からなる。
これら3つの手法はいずれも効率的だが,検出精度の向上だけでなく,潜在的なアダプティブアタックの強化にも役立てることができる。
デカモフラージュは、事前に決められた検出しきい値を持ち、汎用的である。
さらに正確には、検証したように、あるデータセットから決定される閾値は他のデータセットにも適用できます。
デカモフラージュは(攻撃アルゴリズムの知識のない)ホワイトボックスとブラックボックスの設定において(攻撃アルゴリズムの知識のない)検出精度99.9.%と99.8.%を達成する。
デカモフラージュの効率を高めるため、i5 cpuを搭載したパーソナルpc上での実行時間オーバーヘッドを測定し、デカモフラージュがミリ秒でイメージスケーリング攻撃を検出できることを発見した。
全体的に、decamouflageは、ホワイトボックスとブラックボックスの両方の設定で、実行時のオーバーヘッドを許容して、イメージスケーリング攻撃を正確に検出することができる。
関連論文リスト
- On the Detection of Image-Scaling Attacks in Machine Learning [11.103249083138213]
イメージスケーリングは、機械学習とコンピュータビジョンシステムにおいて不可欠な部分である。
縮小画像全体を修正した画像スケーリング攻撃は、適応的敵の下でも確実に検出できる。
本手法は,画像の一部のみを操作しても,強い検出性能が得られることを示す。
論文 参考訳(メタデータ) (2023-10-23T16:46:28Z) - CCDN: Checkerboard Corner Detection Network for Robust Camera
Calibration [10.614480156920935]
チェッカーボードコーナー検出ネットワークといくつかの後処理技術。
ネットワークモデルは、損失関数と学習率を改善した完全な畳み込みネットワークである。
偽陽性を除去するために,最大応答,非最大抑制,クラスタリングに関連するしきい値を含む3つの後処理手法を用いる。
論文 参考訳(メタデータ) (2023-02-10T07:47:44Z) - Self-Supervised Masked Convolutional Transformer Block for Anomaly
Detection [122.4894940892536]
本稿では, 自己監督型マスク型畳み込み変圧器ブロック (SSMCTB) について述べる。
本研究では,従来の自己教師型予測畳み込み抑止ブロック(SSPCAB)を3次元マスク付き畳み込み層,チャンネルワイドアテンション用トランスフォーマー,およびハマーロスに基づく新たな自己教師型目標を用いて拡張する。
論文 参考訳(メタデータ) (2022-09-25T04:56:10Z) - A Perturbation Resistant Transformation and Classification System for
Deep Neural Networks [0.685316573653194]
深層畳み込みニューラルネットワークは、さまざまな自然画像の正確な分類を行うが、設計時には容易に認識できる。
本稿では,攻撃的かつ容易に推定できないマルチプロハングトレーニング,非バウンド入力変換,画像アンサンブルシステムを設計する。
論文 参考訳(メタデータ) (2022-08-25T02:58:47Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - SpectralDefense: Detecting Adversarial Attacks on CNNs in the Fourier
Domain [10.418647759223964]
入力画像と特徴マップのフーリエ領域における解析が,良質なテストサンプルと敵画像の区別にどのように役立つかを示す。
2つの新しい検出方法を提案する。
論文 参考訳(メタデータ) (2021-03-04T12:48:28Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - Towards Dense People Detection with Deep Learning and Depth images [9.376814409561726]
本稿では,1つの深度画像から複数の人物を検出するDNNシステムを提案する。
我々のニューラルネットワークは深度画像を処理し、画像座標の確率マップを出力する。
我々は、この戦略が効果的であることを示し、トレーニング中に使用するものと異なるシーンで動作するように一般化したネットワークを創出する。
論文 参考訳(メタデータ) (2020-07-14T16:43:02Z) - Anomaly Detection-Based Unknown Face Presentation Attack Detection [74.4918294453537]
異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出の最近の進歩である。
本稿では,異常検出に基づくスプーフ攻撃検出のためのディープラーニングソリューションを提案する。
提案手法はCNNの表現学習能力の恩恵を受け,fPADタスクの優れた特徴を学習する。
論文 参考訳(メタデータ) (2020-07-11T21:20:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。