論文の概要: A Multi-Scale Isolation Forest Approach for Real-Time Detection and Filtering of FGSM Adversarial Attacks in Video Streams of Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2502.16044v1
- Date: Sat, 22 Feb 2025 02:44:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:58:42.756538
- Title: A Multi-Scale Isolation Forest Approach for Real-Time Detection and Filtering of FGSM Adversarial Attacks in Video Streams of Autonomous Vehicles
- Title(参考訳): 自律走行車のビデオストリームにおけるFGSM攻撃のリアルタイム検出とフィルタリングのためのマルチスケール分離フォレストアプローチ
- Authors: Richard Abhulimhen, Negash Begashaw, Gurcan Comert, Chunheng Zhao, Pierluigi Pisu,
- Abstract要約: 画像処理タスクにおけるFGSM攻撃の検出とフィルタリングのための新しい手法を提案する。
提案手法は,FGSM攻撃の影響を軽減し,対向的摂動画像のフィルタリングを効果的に行う。
このメソッドはPythonで実装されており、ソースコードはGitHubで公開されている。
- 参考スコア(独自算出の注目度): 10.538168393313866
- License:
- Abstract: Deep Neural Networks (DNNs) have demonstrated remarkable success across a wide range of tasks, particularly in fields such as image classification. However, DNNs are highly susceptible to adversarial attacks, where subtle perturbations are introduced to input images, leading to erroneous model outputs. In today's digital era, ensuring the security and integrity of images processed by DNNs is of critical importance. One of the most prominent adversarial attack methods is the Fast Gradient Sign Method (FGSM), which perturbs images in the direction of the loss gradient to deceive the model. This paper presents a novel approach for detecting and filtering FGSM adversarial attacks in image processing tasks. Our proposed method evaluates 10,000 images, each subjected to five different levels of perturbation, characterized by $\epsilon$ values of 0.01, 0.02, 0.05, 0.1, and 0.2. These perturbations are applied in the direction of the loss gradient. We demonstrate that our approach effectively filters adversarially perturbed images, mitigating the impact of FGSM attacks. The method is implemented in Python, and the source code is publicly available on GitHub for reproducibility and further research.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、特に画像分類などの分野において、幅広いタスクで顕著な成功を収めている。
しかし、DNNは、入力画像に微妙な摂動を導入し、誤ったモデル出力をもたらす敵攻撃に非常に敏感である。
今日のデジタル時代には、DNNによって処理される画像のセキュリティと整合性を保証することが重要である。
最も顕著な敵攻撃手法の1つはFGSM(Fast Gradient Sign Method)である。
本稿では,画像処理タスクにおけるFGSM攻撃の検出とフィルタリングのための新しい手法を提案する。
提案手法は1万枚の画像を解析し,それぞれ5種類の摂動レベルを考慮し,0.01,0.02,0.05,0.1,0.2の値で特徴づけた。
これらの摂動は損失勾配の方向に適用される。
提案手法は,FGSM攻撃の影響を軽減し,対向的摂動画像のフィルタリングを効果的に行うことを実証する。
このメソッドはPythonで実装されており、ソースコードは再現性とさらなる研究のためにGitHubで公開されている。
関連論文リスト
- Distortion-Aware Adversarial Attacks on Bounding Boxes of Object Detectors [1.3493547928462395]
本研究では, 物体検出装置を騙し, 最先端検出器の脆弱性を露呈する新しい手法を提案する。
本手法は, テスト段階における各クラスに対する信頼度予測に不可欠である, トレーニング中に物体の信頼度を摂動することで, 対向画像を生成することを目的とする。
提案手法を検証するために, YOLOv8, Faster R-CNN, RetinaNet, Swin Transformer などの最新の最先端モデルを含む, 異なる物体検出器に対する対向攻撃を行う。
論文 参考訳(メタデータ) (2024-12-25T07:51:57Z) - Learning Heavily-Degraded Prior for Underwater Object Detection [59.5084433933765]
本稿では、検出器フレンドリーな画像から、転送可能な事前知識を求める。
これは、検出器フレンドリー(DFUI)と水中画像の高度に劣化した領域が、特徴分布のギャップがあることを統計的に観察したものである。
高速かつパラメータの少ない本手法は変圧器型検出器よりも優れた性能を保っている。
論文 参考訳(メタデータ) (2023-08-24T12:32:46Z) - Guided Diffusion Model for Adversarial Purification [103.4596751105955]
敵攻撃は、様々なアルゴリズムやフレームワークでディープニューラルネットワーク(DNN)を妨害する。
本稿では,GDMP ( Guided diffusion model for purification) と呼ばれる新しい精製法を提案する。
様々なデータセットにわたる包括的実験において,提案したGDMPは,敵対的攻撃によって引き起こされた摂動を浅い範囲に減少させることを示した。
論文 参考訳(メタデータ) (2022-05-30T10:11:15Z) - Detecting Adversaries, yet Faltering to Noise? Leveraging Conditional
Variational AutoEncoders for Adversary Detection in the Presence of Noisy
Images [0.7734726150561086]
条件変分オートエンコーダ(CVAE)は、知覚不能な画像摂動を検出するのに驚くほど優れている。
画像分類ネットワーク上での敵攻撃を検出するために,CVAEを効果的に利用する方法を示す。
論文 参考訳(メタデータ) (2021-11-28T20:36:27Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Universal Adversarial Perturbations Through the Lens of Deep
Steganography: Towards A Fourier Perspective [78.05383266222285]
人間の知覚不能な摂動は、ほとんどの画像のディープニューラルネットワーク(DNN)をだますために生成することができる。
ディープステガノグラフィタスクでは同様の現象が観測されており、デコーダネットワークはわずかに乱れたカバー画像から秘密の画像を取得することができる。
1)攻撃と隠蔽を同時に行うユニバーサル・シークレット・アドバイサル・パーターベーション(USAP)、(2)人間の目では見えないハイパスUAP(HP-UAP)の2つの新しい変種を提案する。
論文 参考訳(メタデータ) (2021-02-12T12:26:39Z) - Background Adaptive Faster R-CNN for Semi-Supervised Convolutional
Object Detection of Threats in X-Ray Images [64.39996451133268]
我々は、バックグラウンド適応型高速R-CNNと呼ばれる脅威認識のための半教師付きアプローチを提案する。
本手法は,ディープラーニング分野からのドメイン適応手法を用いた2段階物体検出器の訓練手法である。
2つのドメイン識別器(1つはオブジェクト提案を識別し、もう1つは画像特徴を識別する)は、ドメイン固有の情報を符号化するのを防ぐために敵対的に訓練される。
これにより、手作業の背景から抽出した特徴の統計と実世界のデータとを一致させることで、脅威検出の誤報率を低減することができる。
論文 参考訳(メタデータ) (2020-10-02T21:05:13Z) - Efficient detection of adversarial images [2.6249027950824506]
画像の画素値は外部攻撃者によって修正されるため、人間の目にはほとんど見えない。
本稿では,修正画像の検出を容易にする新しい前処理手法を提案する。
このアルゴリズムの適応バージョンでは、ランダムな数の摂動が適応的に選択される。
論文 参考訳(メタデータ) (2020-07-09T05:35:49Z) - Verification of Deep Convolutional Neural Networks Using ImageStars [10.44732293654293]
畳み込みニューラルネットワーク(CNN)は、多くの現実世界で最先端のアプリケーションを再定義している。
CNNは敵の攻撃に対して脆弱であり、入力のわずかな変更は出力の急激な変更につながる可能性がある。
本稿では,VGG16やVGG19などの実世界のCNNを,ImageNet上で高い精度で処理可能なセットベースフレームワークについて述べる。
論文 参考訳(メタデータ) (2020-04-12T00:37:21Z) - Evading Deepfake-Image Detectors with White- and Black-Box Attacks [75.13740810603686]
一般的な法医学的アプローチは、ニューラルネットワークを訓練して、実際の合成内容と区別することを示します。
我々は,既存の画像生成装置の約0.95のLOC曲線(AUC)以下の領域を達成できる最先端の分類器に関する5つの攻撃事例研究を開発した。
また、ターゲット分類器にアクセスできないブラックボックス攻撃により、AUCを0.22に削減する。
論文 参考訳(メタデータ) (2020-04-01T17:59:59Z) - Adversarial Attacks on Convolutional Neural Networks in Facial
Recognition Domain [2.4704085162861693]
Deep Neural Network(DNN)分類器を実生活で脆弱にする敵攻撃は、自動運転車、マルウェアフィルター、生体認証システムにおいて深刻な脅威となる。
我々はFast Gradient Sign Methodを適用し、顔画像データセットに摂動を導入し、異なる分類器で出力をテストする。
我々は、最小の敵対的知識を前提に、さまざまなブラックボックス攻撃アルゴリズムを顔画像データセット上に構築する。
論文 参考訳(メタデータ) (2020-01-30T00:25:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。