論文の概要: Time Traveling to Defend Against Adversarial Example Attacks in Image Classification
- arxiv url: http://arxiv.org/abs/2410.08338v1
- Date: Thu, 10 Oct 2024 19:56:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-31 03:56:20.253638
- Title: Time Traveling to Defend Against Adversarial Example Attacks in Image Classification
- Title(参考訳): 画像分類における敵対的事例攻撃に対する防御のための時間旅行
- Authors: Anthony Etim, Jakub Szefer,
- Abstract要約: 敵の例による攻撃は、機械学習にとって重要な脅威として浮上している。
画像分類における敵対的攻撃は、画像分類ニューラルネットワークを混乱させる画像への様々な小さな修正を悪用する。
この研究は「タイムトラベル」の概念を導入し、誰にでもアクセス可能な歴史的ストリートビュー画像を用いて、同じ標識の異なる過去のバージョンで推論を行う。
- 参考スコア(独自算出の注目度): 10.353892677735212
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial example attacks have emerged as a critical threat to machine learning. Adversarial attacks in image classification abuse various, minor modifications to the image that confuse the image classification neural network -- while the image still remains recognizable to humans. One important domain where the attacks have been applied is in the automotive setting with traffic sign classification. Researchers have demonstrated that adding stickers, shining light, or adding shadows are all different means to make machine learning inference algorithms mis-classify the traffic signs. This can cause potentially dangerous situations as a stop sign is recognized as a speed limit sign causing vehicles to ignore it and potentially leading to accidents. To address these attacks, this work focuses on enhancing defenses against such adversarial attacks. This work shifts the advantage to the user by introducing the idea of leveraging historical images and majority voting. While the attacker modifies a traffic sign that is currently being processed by the victim's machine learning inference, the victim can gain advantage by examining past images of the same traffic sign. This work introduces the notion of ''time traveling'' and uses historical Street View images accessible to anybody to perform inference on different, past versions of the same traffic sign. In the evaluation, the proposed defense has 100% effectiveness against latest adversarial example attack on traffic sign classification algorithm.
- Abstract(参考訳): 敵の例による攻撃は、機械学習にとって重要な脅威として浮上している。
画像分類における敵対的な攻撃は、画像分類ニューラルネットワークを混乱させる画像に様々な小さな修正を加えている。
攻撃が適用された重要な領域の1つは、交通標識の分類を伴う自動車の設定である。
研究者たちは、ステッカーの追加、光の輝き、シャドーの追加が、機械学習推論アルゴリズムが交通標識を誤って分類する手段であることを示した。
これは、停止標識が速度制限標識として認識され、車両がそれを無視し、事故につながる可能性があるため、潜在的に危険な状況を引き起こす可能性がある。
これらの攻撃に対処するため、この研究はこのような敵攻撃に対する防御を強化することに焦点を当てている。
本研究は,歴史的イメージの活用と多数決という考え方を導入することで,ユーザにとってのメリットをシフトさせるものである。
攻撃者は、現在被害者の機械学習推論によって処理されている交通標識を変更するが、同じ交通標識の過去の画像を調べることで、被害者は有利になる。
この研究は「タイムトラベル」の概念を導入し、誰にでもアクセス可能な歴史的ストリートビュー画像を用いて、同じ標識の異なる過去のバージョンで推論を行う。
評価において,提案した防御効果は,交通標識分類アルゴリズムに対する最新の逆例攻撃に対して100%有効である。
関連論文リスト
- Secure Traffic Sign Recognition: An Attention-Enabled Universal Image Inpainting Mechanism against Light Patch Attacks [15.915892134535842]
研究者たちは最近、信号認識システムを騙す新たな攻撃ベクトルを特定した。
このセキュリティの脅威を効果的に解消するために,SafeSignというユニバーサルイメージの塗装機構を提案する。
それは、敵光のパッチによって汚染された交通標識を修復するために、注意力のある多視点画像融合に依存している。
論文 参考訳(メタデータ) (2024-09-06T08:58:21Z) - Invisible Optical Adversarial Stripes on Traffic Sign against Autonomous Vehicles [10.17957244747775]
本稿では、発光ダイオードを用いて、カメラのローリングシャッター効果を利用して交通標識認識を誤認する攻撃を提案する。
交通標識のストライプは人間には見えないので、攻撃はステルスです。
本稿では,カメラセンサ,知覚モデル,自律運転システムのレベルにおける対策について論じる。
論文 参考訳(メタデータ) (2024-07-10T09:55:31Z) - Adversary ML Resilience in Autonomous Driving Through Human Centered
Perception Mechanisms [0.0]
本稿では,3つの物理的攻撃(テープ,落書き,照明)に対する自律走行システムのレジリエンスについて検討する。
攻撃に対する堅牢性を構築するために、敵の訓練や移動学習のような防御技術が導入された。
その結果,道路標識分類の一般化性を向上させるために,形状訓練から得られる知識を付与することにより,伝達学習モデルが性能において重要な役割を担っていることが示された。
論文 参考訳(メタデータ) (2023-11-02T04:11:45Z) - Explainable and Trustworthy Traffic Sign Detection for Safe Autonomous
Driving: An Inductive Logic Programming Approach [0.0]
自動走行車における停止信号検出のためのILPに基づくアプローチを提案する。
それは人間のような知覚を模倣するため、敵の攻撃に対してより堅牢である。
PR2やADvCamの攻撃があっても、標的とするすべての停止標識を正しく識別することができる。
論文 参考訳(メタデータ) (2023-08-30T09:05:52Z) - Identification of Attack-Specific Signatures in Adversarial Examples [62.17639067715379]
異なる攻撃アルゴリズムは, その効果だけでなく, 被害者の質的な影響も示している。
以上の結果から, 予測的対人攻撃は, 模擬モデルにおける成功率だけでなく, 被害者に対するより深い下流効果によって比較されるべきであることが示唆された。
論文 参考訳(メタデータ) (2021-10-13T15:40:48Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Resilience of Autonomous Vehicle Object Category Detection to Universal
Adversarial Perturbations [0.0]
クラスレベルでの物体検出に対する普遍摂動の影響を評価する。
我々は、人、車、交通信号、トラック、停止標識、交通信号の5つのカテゴリの画像に、Faster-RCNNオブジェクト検出器を使用します。
我々の結果は、人、車、信号機、トラック、および停止標識が、(少なくとも)普遍的な摂動に対して、その順序で(少なくとも)回復可能であることを示している。
論文 参考訳(メタデータ) (2021-07-10T03:40:25Z) - Targeted Physical-World Attention Attack on Deep Learning Models in Road
Sign Recognition [79.50450766097686]
本稿では,現実の道路標識攻撃に対するTAA手法を提案する。
実験の結果,TAA法は攻撃成功率(約10%)を向上し,RP2法と比較して摂動損失(約4分の1)を減少させることがわかった。
論文 参考訳(メタデータ) (2020-10-09T02:31:34Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - Deflecting Adversarial Attacks [94.85315681223702]
我々は、攻撃者が攻撃対象クラスに似た入力を生成することによって、敵攻撃を「防御」するこのサイクルを終わらせる新しいアプローチを提案する。
本稿ではまず,3つの検出機構を組み合わせたカプセルネットワークに基づくより強力な防御手法を提案する。
論文 参考訳(メタデータ) (2020-02-18T06:59:13Z) - Over-the-Air Adversarial Flickering Attacks against Video Recognition
Networks [54.82488484053263]
ビデオ分類のためのディープニューラルネットワークは、敵の操作を受けることができる。
本稿では,フリックング時間摂動を導入することで,ビデオ分類器を騙す操作手法を提案する。
攻撃はいくつかの標的モデルに実装され、攻撃の伝達性が実証された。
論文 参考訳(メタデータ) (2020-02-12T17:58:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。