論文の概要: Fall Leaf Adversarial Attack on Traffic Sign Classification
- arxiv url: http://arxiv.org/abs/2411.18776v1
- Date: Wed, 27 Nov 2024 22:02:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 15:21:05.597633
- Title: Fall Leaf Adversarial Attack on Traffic Sign Classification
- Title(参考訳): 交通標識分類における落葉反転攻撃
- Authors: Anthony Etim, Jakub Szefer,
- Abstract要約: 適応入力画像摂動攻撃は、機械学習アルゴリズムに対する重大な脅威として浮上している。
この研究は、自然の人工物を利用する新たな種類の敵攻撃を提示する。
道路標識に貼られた落ち葉は、悪意のある人間の攻撃者によって置かれるのではなく、近くの木から来る可能性がある。
- 参考スコア(独自算出の注目度): 10.353892677735212
- License:
- Abstract: Adversarial input image perturbation attacks have emerged as a significant threat to machine learning algorithms, particularly in image classification setting. These attacks involve subtle perturbations to input images that cause neural networks to misclassify the input images, even though the images remain easily recognizable to humans. One critical area where adversarial attacks have been demonstrated is in automotive systems where traffic sign classification and recognition is critical, and where misclassified images can cause autonomous systems to take wrong actions. This work presents a new class of adversarial attacks. Unlike existing work that has focused on adversarial perturbations that leverage human-made artifacts to cause the perturbations, such as adding stickers, paint, or shining flashlights at traffic signs, this work leverages nature-made artifacts: tree leaves. By leveraging nature-made artifacts, the new class of attacks has plausible deniability: a fall leaf stuck to a street sign could come from a near-by tree, rather than be placed there by an malicious human attacker. To evaluate the new class of the adversarial input image perturbation attacks, this work analyses how fall leaves can cause misclassification in street signs. The work evaluates various leaves from different species of trees, and considers various parameters such as size, color due to tree leaf type, and rotation. The work demonstrates high success rate for misclassification. The work also explores the correlation between successful attacks and how they affect the edge detection, which is critical in many image classification algorithms.
- Abstract(参考訳): 逆入力画像摂動攻撃は、特に画像分類設定において、機械学習アルゴリズムに対する重大な脅威として現れている。
これらの攻撃は、入力画像に微妙な摂動を伴い、ニューラルネットワークが入力画像を誤分類する原因となる。
敵の攻撃が実証された重要な領域の1つは、交通標識の分類と認識が重要であり、誤分類された画像が自律システムに誤った行動を起こさせる可能性がある自動車システムである。
本研究は、新たな種類の敵攻撃を提示する。
人造の人工物を活用して交通標識にステッカーやペンキ、輝く懐中電灯などの乱れを引き起こす、敵の摂動に焦点を当てた既存の研究とは異なり、この研究は天然の人工物(木の葉)を活用している。
道路標識に貼られた落ち葉は、悪意のある人間の攻撃者によって配置されるのではなく、ほぼ木々から来る可能性がある。
逆入力画像摂動攻撃の新しいクラスを評価するために,落ち葉が街路標識の誤分類の原因となるかを分析する。
この研究は、様々な種類の木の葉を評価し、大きさ、木の葉の種類による色、回転など様々なパラメータを考察している。
この作品は、誤分類の成功率が高いことを示している。
この研究は、多くの画像分類アルゴリズムにおいて重要な、成功した攻撃とそれがエッジ検出に与える影響の相関についても検討している。
関連論文リスト
- Time Traveling to Defend Against Adversarial Example Attacks in Image Classification [10.353892677735212]
敵の例による攻撃は、機械学習にとって重要な脅威として浮上している。
画像分類における敵対的攻撃は、画像分類ニューラルネットワークを混乱させる画像への様々な小さな修正を悪用する。
この研究は「タイムトラベル」の概念を導入し、誰にでもアクセス可能な歴史的ストリートビュー画像を用いて、同じ標識の異なる過去のバージョンで推論を行う。
論文 参考訳(メタデータ) (2024-10-10T19:56:28Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Dual Adversarial Resilience for Collaborating Robust Underwater Image
Enhancement and Perception [54.672052775549]
本研究では,水中画像の強調と検出を行うために,CARNetと呼ばれる協調的対向レジリエンスネットワークを導入する。
本稿では,ネットワークが様々な種類の攻撃を識別・除去できるように,視覚駆動型と知覚駆動型の両方による同時攻撃訓練戦略を提案する。
実験により,提案手法は画像の高画質化を図り,最先端の手法よりも平均6.71%高い検出精度が得られた。
論文 参考訳(メタデータ) (2023-09-03T06:52:05Z) - Adversarial Attacks on Image Classification Models: FGSM and Patch
Attacks and their Impact [0.0]
本章では、畳み込みニューラルネットワーク(CNN)上に構築された画像分類モデルに対する逆攻撃の概念を紹介する。
CNNは画像分類タスクで使用される非常に人気のあるディープラーニングモデルである。
2つの非常によく知られた敵対的攻撃について論じ、画像分類器の性能への影響について分析した。
論文 参考訳(メタデータ) (2023-07-05T06:40:08Z) - Adversarial Ink: Componentwise Backward Error Attacks on Deep Learning [0.0]
ディープニューラルネットワークは、多くの分類タスクにおいて最先端のパフォーマンスを実現することができる。
ディープニューラルネットワークは敵の攻撃に弱いことが知られている。
我々は、コンポーネント的に相対的な摂動を利用する新たな攻撃アルゴリズムを開発する。
論文 参考訳(メタデータ) (2023-06-05T14:28:39Z) - Evaluating Adversarial Robustness on Document Image Classification [0.0]
我々は、敵の攻撃哲学をドキュメンタリーや自然データに適用し、そのような攻撃に対してモデルを保護する。
我々は、未目標のグラデーションベース、トランスファーベース、スコアベースの攻撃に焦点を合わせ、敵の訓練の影響を評価する。
論文 参考訳(メタデータ) (2023-04-24T22:57:59Z) - Just Rotate it: Deploying Backdoor Attacks via Rotation Transformation [48.238349062995916]
回転に基づく画像変換により,高い効率のバックドアを容易に挿入できることが判明した。
私たちの研究は、バックドア攻撃のための、新しく、シンプルで、物理的に実現可能で、非常に効果的なベクターに焦点を当てています。
論文 参考訳(メタデータ) (2022-07-22T00:21:18Z) - Identification of Attack-Specific Signatures in Adversarial Examples [62.17639067715379]
異なる攻撃アルゴリズムは, その効果だけでなく, 被害者の質的な影響も示している。
以上の結果から, 予測的対人攻撃は, 模擬モデルにおける成功率だけでなく, 被害者に対するより深い下流効果によって比較されるべきであることが示唆された。
論文 参考訳(メタデータ) (2021-10-13T15:40:48Z) - Attack to Fool and Explain Deep Networks [59.97135687719244]
対人摂動における人為的意味のパターンの証拠を提供することによって、私たちは逆転する。
我々の主な貢献は、その後視覚モデルを理解するためのツールに変換される、新しい実用的対人攻撃である。
論文 参考訳(メタデータ) (2021-06-20T03:07:36Z) - Deep Image Destruction: A Comprehensive Study on Vulnerability of Deep
Image-to-Image Models against Adversarial Attacks [104.8737334237993]
本稿では,敵対的攻撃に対する深部画像対画像モデルの脆弱性に関する包括的調査を行う。
一般的な5つの画像処理タスクでは、さまざまな観点から16の深いモデルが分析される。
画像分類タスクとは異なり、画像間タスクの性能劣化は様々な要因によって大きく異なることが示される。
論文 参考訳(メタデータ) (2021-04-30T14:20:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。