論文の概要: Redesigning Traffic Signs to Mitigate Machine-Learning Patch Attacks
- arxiv url: http://arxiv.org/abs/2402.04660v3
- Date: Sun, 31 Aug 2025 14:19:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-03 14:24:51.933686
- Title: Redesigning Traffic Signs to Mitigate Machine-Learning Patch Attacks
- Title(参考訳): 機械学習によるパッチ攻撃を緩和するトラフィックサインの再設計
- Authors: Tsufit Shua, Liron David, Mahmood Sharif,
- Abstract要約: 交通信号認識(TSR)は自動運転にとって重要な安全要素である。
この研究は、交通信号の設計を再定義し、人間に解釈しながら堅牢性を促進するサインを作る新しいアプローチを提供する。
- 参考スコア(独自算出の注目度): 4.575921073944177
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Traffic-Sign Recognition (TSR) is a critical safety component for autonomous driving. Unfortunately, however, past work has highlighted the vulnerability of TSR models to physical-world attacks, through low-cost, easily deployable adversarial patches leading to misclassification. To mitigate these threats, most defenses focus on altering the training process or modifying the inference procedure. Still, while these approaches improve adversarial robustness, TSR remains susceptible to attacks attaining substantial success rates. To further the adversarial robustness of TSR, this work offers a novel approach that redefines traffic-sign designs to create signs that promote robustness while remaining interpretable to humans. Our framework takes three inputs: (1) A traffic-sign standard along with modifiable features and associated constraints; (2) A state-of-the-art adversarial training method; and (3) A function for efficiently synthesizing realistic traffic-sign images. Using these user-defined inputs, the framework emits an optimized traffic-sign standard such that traffic signs generated per this standard enable training TSR models with increased adversarial robustness. We evaluate the effectiveness of our framework via a concrete implementation, where we allow modifying the pictograms (i.e., symbols) and colors of traffic signs. The results show substantial improvements in robustness -- with gains of up to 16.33%--24.58% in robust accuracy over state-of-the-art methods -- while benign accuracy is even improved. Importantly, a user study also confirms that the redesigned traffic signs remain easily recognizable and to human observers. Overall, the results highlight that carefully redesigning traffic signs can significantly enhance TSR system robustness without compromising human interpretability.
- Abstract(参考訳): 交通信号認識(TSR)は自動運転にとって重要な安全要素である。
しかし、残念なことに、過去の研究はTSRモデルの物理的世界の攻撃に対する脆弱性を強調しており、低コストで容易にデプロイ可能な敵パッチによって誤分類につながっている。
これらの脅威を軽減するため、ほとんどの防衛はトレーニングプロセスの変更や推論手順の変更に重点を置いている。
それでも、これらのアプローチは敵の堅牢性を改善するが、TSRは依然としてかなりの成功率に達する攻撃に影響を受けやすい。
TSRの敵対的ロバスト性をさらに強化するため、この研究は交通信号の設計を再定義し、人間に解釈しながら頑健性を促進するサインを作成する新しいアプローチを提供する。
提案フレームワークは,(1)変更可能な特徴と関連する制約を伴う交通信号標準,(2)最先端の対角訓練手法,(3)現実的な交通信号画像の効率的な合成機能,の3つの入力を取り入れている。
これらのユーザ定義入力を用いて、このフレームワークは最適化されたトラフィックサイン標準を出力し、この標準で生成されたトラフィックサインにより、対向的ロバスト性を高めたTSRモデルのトレーニングを可能にする。
我々は,具体的な実装によるフレームワークの有効性を評価し,ピクトグラム(記号)や交通標識の色の変更を可能にした。
その結果、最先端の手法よりも高い精度で16.33%--24.58%まで向上する一方で、良質な精度も向上した。
重要な点として、ユーザーによる調査では、再設計された交通標識が容易に認識でき、人間の観察者にも認識可能であることも確認されている。
その結果,交通標識を慎重に再設計することで,人間の解釈性を損なうことなく,TSRシステムの堅牢性を著しく向上させることができることがわかった。
関連論文リスト
- Optimization-Guided Diffusion for Interactive Scene Generation [52.23368750264419]
本稿では,拡散型サンプリングにおける構造的一貫性と相互作用認識を実現するための,最適化誘導型トレーニングフリーフレームワークであるOMEGAを提案する。
OMEGAは生成リアリズム,一貫性,可制御性を向上し,身体的および行動学的に有効なシーンの比率を増大させることを示す。
当社のアプローチでは,3秒未満の時間対コリションで,より近いコリジョンフレームを5ドル(約5,500円)で生成することも可能だ。
論文 参考訳(メタデータ) (2025-12-08T15:56:18Z) - The Outline of Deception: Physical Adversarial Attacks on Traffic Signs Using Edge Patches [6.836569632189732]
本研究は,交通標識分類のためのステルス対応逆パッチ方式TESP-Attackを提案する。
人間の視覚的注意は主に交通標識の中央領域に焦点を当てているという観察に基づいて, エッジアライメントマスクを生成するために, ケースセグメンテーションを採用している。
U-Netジェネレータは敵パッチの作成に利用され、色とテクスチャの制約によって最適化される。
論文 参考訳(メタデータ) (2025-11-30T07:26:07Z) - T2I-Based Physical-World Appearance Attack against Traffic Sign Recognition Systems in Autonomous Driving [40.067678927952336]
交通信号認識(TSR)システムは、自律運転(AD)システムにおいて重要な役割を果たす。
最近の研究は、その脆弱性を物理世界の敵対的外見攻撃に暴露している。
我々は、新しいT2Iベースの外観攻撃フレームワークであるDiffSignを紹介する。
論文 参考訳(メタデータ) (2025-11-17T04:29:55Z) - Contrastive Learning-Driven Traffic Sign Perception: Multi-Modal Fusion of Text and Vision [2.0720154517628417]
オープン語彙検出とクロスモーダル学習を組み合わせた新しいフレームワークを提案する。
交通信号検出のために,NanoVerse YOLOモデルは視覚言語パス集約ネットワーク(RepVL-PAN)とSPD-Convモジュールを統合している。
交通標識分類のための交通信号認識マルチモーダルコントラスト学習モデル(TSR-MCL)を設計した。
TT100Kデータセットでは,全クラス認識のためのロングテール検出タスクにおいて,最先端の78.4%mAPを実現する。
論文 参考訳(メタデータ) (2025-07-31T08:23:30Z) - Robust and Safe Traffic Sign Recognition using N-version with Weighted Voting [5.087405608698016]
N-version machine learning (NVML) フレームワークを提案する。
本手法では、FMEA(Failure Mode and Effects Analysis)を用いて、潜在的な安全性リスクを評価し、アンサンブル出力に動的で安全性に配慮した重みを割り当てる。
実験により,NVML手法は,対向条件下での交通標識認識システムの堅牢性と安全性を著しく向上させることが示された。
論文 参考訳(メタデータ) (2025-07-09T14:46:31Z) - ROAD: Responsibility-Oriented Reward Design for Reinforcement Learning in Autonomous Driving [6.713954449470747]
本研究では,交通規制を具体化する責任指向報酬関数をReinforcement Learningフレームワークに導入する。
本稿では,交通規制知識グラフを導入し,視覚・言語モデルと検索・拡張生成手法を併用して報酬の割り当てを自動化する。
論文 参考訳(メタデータ) (2025-05-30T08:00:51Z) - A Knowledge-guided Adversarial Defense for Resisting Malicious Visual Manipulation [93.28532038721816]
視覚的操作の悪意ある応用は、多くの分野でユーザーのセキュリティと評判に深刻な脅威をもたらしている。
本稿では,悪質な操作モデルを積極的に強制し,意味論的に混乱したサンプルを出力するために,知識誘導型敵防衛(KGAD)を提案する。
論文 参考訳(メタデータ) (2025-04-11T10:18:13Z) - A Meaningful Perturbation Metric for Evaluating Explainability Methods [55.09730499143998]
本稿では,画像生成モデルを用いて標的摂動を行う新しい手法を提案する。
具体的には,画像の忠実さを保ちながら,入力画像の高関連画素のみを塗布し,モデルの予測を変更することに焦点を当てる。
これは、しばしばアウト・オブ・ディストリビューションの修正を生み出し、信頼できない結果をもたらす既存のアプローチとは対照的である。
論文 参考訳(メタデータ) (2025-04-09T11:46:41Z) - A Multi-Loss Strategy for Vehicle Trajectory Prediction: Combining Off-Road, Diversity, and Directional Consistency Losses [68.68514648185828]
軌道予測は、自動運転車における計画の安全性と効率に不可欠である。
現在のモデルでは、複雑な交通規則と潜在的な車両の動きを完全に捉えることができないことが多い。
本研究は, オフロード損失, 方向整合誤差, ダイバーシティ損失の3つの新しい損失関数を紹介する。
論文 参考訳(メタデータ) (2024-11-29T14:47:08Z) - RED: Robust Environmental Design [0.0]
本研究では,広範囲なパッチベースの攻撃に対して堅牢な道路標識を自動設計するアタッカーに依存しない学習手法を提案する。
デジタル環境と物理環境の両方で実施された実証実験により、我々のアプローチは攻撃に対する脆弱性を著しく減らし、既存の技術より優れていることが示された。
論文 参考訳(メタデータ) (2024-11-26T01:38:51Z) - SAFE-SIM: Safety-Critical Closed-Loop Traffic Simulation with Diffusion-Controllable Adversaries [94.84458417662407]
制御可能なクローズドループ安全クリティカルシミュレーションフレームワークであるSAFE-SIMを紹介する。
提案手法は,1)現実の環境を深く反映した現実的な長距離安全クリティカルシナリオの生成,2)より包括的でインタラクティブな評価のための制御可能な敵行動の提供,の2つの利点をもたらす。
複数のプランナにまたがるnuScenesとnuPlanデータセットを使用して、我々のフレームワークを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Certified Interpretability Robustness for Class Activation Mapping [77.58769591550225]
本稿では,解釈可能性マップのためのCORGI(Certifiable prOvable Robustness Guarantees)を提案する。
CORGIは入力画像を取り込み、そのCAM解釈可能性マップのロバスト性に対する証明可能な下限を与えるアルゴリズムである。
交通標識データを用いたケーススタディによるCORGIの有効性を示す。
論文 参考訳(メタデータ) (2023-01-26T18:58:11Z) - Learning Transferable Adversarial Robust Representations via Multi-view
Consistency [57.73073964318167]
デュアルエンコーダを用いたメタ逆多視点表現学習フレームワークを提案する。
未確認領域からの少数ショット学習タスクにおけるフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2022-10-19T11:48:01Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - SafeAMC: Adversarial training for robust modulation recognition models [53.391095789289736]
通信システムには、Deep Neural Networks(DNN)モデルに依存する変調認識など、多くのタスクがある。
これらのモデルは、逆方向の摂動、すなわち、誤分類を引き起こすために作られた知覚不能な付加音に影響を受けやすいことが示されている。
本稿では,自動変調認識モデルのロバスト性を高めるために,逆方向の摂動を伴うモデルを微調整する逆方向トレーニングを提案する。
論文 参考訳(メタデータ) (2021-05-28T11:29:04Z) - Deepfake Forensics via An Adversarial Game [99.84099103679816]
顔偽造と画像・映像品質の両面での一般化能力向上のための対人訓練を提唱する。
AIベースの顔操作は、しばしば、一般化が困難であるモデルによって容易に発見できる高周波アーティファクトにつながることを考慮し、これらの特定のアーティファクトを曖昧にしようとする新しい逆トレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-03-25T02:20:08Z) - Targeted Physical-World Attention Attack on Deep Learning Models in Road
Sign Recognition [79.50450766097686]
本稿では,現実の道路標識攻撃に対するTAA手法を提案する。
実験の結果,TAA法は攻撃成功率(約10%)を向上し,RP2法と比較して摂動損失(約4分の1)を減少させることがわかった。
論文 参考訳(メタデータ) (2020-10-09T02:31:34Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z) - Opportunities and Challenges in Deep Learning Adversarial Robustness: A
Survey [1.8782750537161614]
本稿では,機械学習アルゴリズムの安全性を保証するために,強靭に訓練されたアルゴリズムを実装するための戦略について検討する。
我々は、敵の攻撃と防衛を分類し、ロバスト最適化問題をmin-max設定で定式化し、それを3つのサブカテゴリに分類する。
論文 参考訳(メタデータ) (2020-07-01T21:00:32Z) - Class-Aware Domain Adaptation for Improving Adversarial Robustness [27.24720754239852]
学習データに敵の例を注入することにより,ネットワークを訓練するための敵の訓練が提案されている。
そこで本研究では,対人防御のための新しいクラスアウェアドメイン適応法を提案する。
論文 参考訳(メタデータ) (2020-05-10T03:45:19Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。