論文の概要: Explainable and Trustworthy Traffic Sign Detection for Safe Autonomous
Driving: An Inductive Logic Programming Approach
- arxiv url: http://arxiv.org/abs/2309.03215v1
- Date: Wed, 30 Aug 2023 09:05:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-10 03:38:48.485126
- Title: Explainable and Trustworthy Traffic Sign Detection for Safe Autonomous
Driving: An Inductive Logic Programming Approach
- Title(参考訳): 安全な自律運転のための説明可能かつ信頼できる交通信号検出:帰納的論理プログラミングアプローチ
- Authors: Zahra Chaghazardi (University of Surrey), Saber Fallah (University of
Surrey), Alireza Tamaddoni-Nezhad (University of Surrey)
- Abstract要約: 自動走行車における停止信号検出のためのILPに基づくアプローチを提案する。
それは人間のような知覚を模倣するため、敵の攻撃に対してより堅牢である。
PR2やADvCamの攻撃があっても、標的とするすべての停止標識を正しく識別することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traffic sign detection is a critical task in the operation of Autonomous
Vehicles (AV), as it ensures the safety of all road users. Current DNN-based
sign classification systems rely on pixel-level features to detect traffic
signs and can be susceptible to adversarial attacks. These attacks involve
small, imperceptible changes to a sign that can cause traditional classifiers
to misidentify the sign. We propose an Inductive Logic Programming (ILP) based
approach for stop sign detection in AVs to address this issue. This method
utilises high-level features of a sign, such as its shape, colour, and text, to
detect categories of traffic signs. This approach is more robust against
adversarial attacks, as it mimics human-like perception and is less susceptible
to the limitations of current DNN classifiers. We consider two adversarial
attacking methods to evaluate our approach: Robust Physical Perturbation (PR2)
and Adversarial Camouflage (AdvCam). These attacks are able to deceive DNN
classifiers, causing them to misidentify stop signs as other signs with high
confidence. The results show that the proposed ILP-based technique is able to
correctly identify all targeted stop signs, even in the presence of PR2 and
ADvCam attacks. The proposed learning method is also efficient as it requires
minimal training data. Moreover, it is fully explainable, making it possible to
debug AVs.
- Abstract(参考訳): 道路利用者の安全を確保するため,交通標識検出は自動運転車(AV)の運用において重要な課題である。
現在のDNNベースの手話分類システムは、交通標識を検出するためにピクセルレベルの機能に依存しており、敵の攻撃を受けやすい。
これらの攻撃は、伝統的な分類器が記号を誤認させる可能性がある記号の小さな、不可避な変更を伴う。
本稿では,AVにおける停止信号検出のためのインダクティブ論理プログラミング(ILP)に基づく手法を提案する。
本手法は,信号の形状,色,テキストなどの高レベルな特徴を利用して,信号のカテゴリを検出する。
このアプローチは、人間のような知覚を模倣し、現在のDNN分類器の限界の影響を受けにくいため、敵攻撃に対してより堅牢である。
本稿では,ロバスト物理摂動(PR2)と逆カモフラージュ(AdvCam)の2つの逆攻撃手法を検討した。
これらの攻撃はDNN分類器を欺くことができ、停止標識を信頼度の高い他の標識と誤識別させる。
提案手法は, PR2 および ADvCam 攻撃があっても, 標的となるすべての停止標識を正しく識別できることを示す。
提案手法は, 最小の学習データを必要とするため, 効率的である。
さらに、完全な説明が可能で、AVをデバッグすることができる。
関連論文リスト
- A Hybrid Quantum-Classical AI-Based Detection Strategy for Generative Adversarial Network-Based Deepfake Attacks on an Autonomous Vehicle Traffic Sign Classification System [2.962613983209398]
著者らは、AV信号の分類システムを騙すために、生成的敵ネットワークベースのディープフェイク攻撃をいかに構築できるかを提示する。
彼らは、ハイブリッド量子古典ニューラルネットワーク(NN)を活用したディープフェイクトラフィックサイン画像検出戦略を開発した。
その結果、ディープフェイク検出のためのハイブリッド量子古典的NNは、ほとんどの場合、ベースラインの古典的畳み込みNNと似た、あるいは高い性能が得られることが示唆された。
論文 参考訳(メタデータ) (2024-09-25T19:44:56Z) - AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - TPatch: A Triggered Physical Adversarial Patch [19.768494127237393]
音響信号によって引き起こされる物理的対向パッチであるTPatchを提案する。
運転者の疑念を避けるため,コンテンツベースカモフラージュ法と攻撃強化法を提案する。
論文 参考訳(メタデータ) (2023-12-30T06:06:01Z) - Adversarial Attacks on Traffic Sign Recognition: A Survey [2.658812114255374]
交通標識は、印刷された標識やステッカーを使って現実世界の攻撃を行うのが容易であるため、敵の攻撃研究には有望である。
我々は,最新の進歩の概要と,さらなる調査を必要とする既存の研究分野について概説する。
論文 参考訳(メタデータ) (2023-07-17T06:58:22Z) - Certified Interpretability Robustness for Class Activation Mapping [77.58769591550225]
本稿では,解釈可能性マップのためのCORGI(Certifiable prOvable Robustness Guarantees)を提案する。
CORGIは入力画像を取り込み、そのCAM解釈可能性マップのロバスト性に対する証明可能な下限を与えるアルゴリズムである。
交通標識データを用いたケーススタディによるCORGIの有効性を示す。
論文 参考訳(メタデータ) (2023-01-26T18:58:11Z) - Shadows Aren't So Dangerous After All: A Fast and Robust Defense Against
Shadow-Based Adversarial Attacks [2.4254101826561842]
本稿では,道路標識認識の文脈において,シャドーアタックを防御する堅牢で高速で汎用的な手法を提案する。
我々は、そのシャドウ攻撃に対する堅牢性を実証的に示し、類似性を$varepsilon$ベース攻撃で示すために問題を再構築する。
論文 参考訳(メタデータ) (2022-08-18T00:19:01Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - On Trace of PGD-Like Adversarial Attacks [77.75152218980605]
敵対的攻撃は、ディープラーニングアプリケーションに対する安全性とセキュリティ上の懸念を引き起こす。
モデルの勾配一貫性を反映した適応応答特性(ARC)特性を構築する。
私たちの方法は直感的で、軽量で、非侵襲的で、データ不要です。
論文 参考訳(メタデータ) (2022-05-19T14:26:50Z) - A Hybrid Defense Method against Adversarial Attacks on Traffic Sign
Classifiers in Autonomous Vehicles [4.585587646404074]
敵対的攻撃は、ディープニューラルネットワーク(DNN)モデルに、自動運転車(AV)の誤った出力ラベルを予測させる。
本研究では,ハイブリッドディフェンス方式を用いたAV用レジリエントトラフィックサイン分類器を開発した。
本手法は, 攻撃シナリオの平均交通標識分類精度が99%, 攻撃シナリオの平均交通標識分類精度が88%であることを示す。
論文 参考訳(メタデータ) (2022-04-25T02:13:31Z) - Targeted Physical-World Attention Attack on Deep Learning Models in Road
Sign Recognition [79.50450766097686]
本稿では,現実の道路標識攻撃に対するTAA手法を提案する。
実験の結果,TAA法は攻撃成功率(約10%)を向上し,RP2法と比較して摂動損失(約4分の1)を減少させることがわかった。
論文 参考訳(メタデータ) (2020-10-09T02:31:34Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。