論文の概要: Adversarial Robustness Through Artifact Design
- arxiv url: http://arxiv.org/abs/2402.04660v2
- Date: Sun, 27 Oct 2024 16:09:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-28 17:07:30.654222
- Title: Adversarial Robustness Through Artifact Design
- Title(参考訳): アーチファクトデザインによる対向ロバスト性
- Authors: Tsufit Shua, Liron David, Mahmood Sharif,
- Abstract要約: 敵の強靭性を改善するための新しい手法を提案する。
具体的には、標準を再定義し、既存の標準に小さな変更を加え、敵の例から防御する方法を提供する。
交通信号認識の分野における我々のアプローチを評価し,交通信号ピクトグラムとその色を変更する。
- 参考スコア(独自算出の注目度): 2.705610268122756
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Adversarial examples arose as a challenge for machine learning. To hinder them, most defenses alter how models are trained (e.g., adversarial training) or inference is made (e.g., randomized smoothing). Still, while these approaches markedly improve models' adversarial robustness, models remain highly susceptible to adversarial examples. Identifying that, in certain domains such as traffic-sign recognition, objects are implemented per standards specifying how artifacts (e.g., signs) should be designed, we propose a novel approach for improving adversarial robustness. Specifically, we offer a method to redefine standards, making minor changes to existing ones, to defend against adversarial examples. We formulate the problem of artifact design as a robust optimization problem, and propose gradient-based and greedy search methods to solve it. We evaluated our approach in the domain of traffic-sign recognition, allowing it to alter traffic-sign pictograms (i.e., symbols within the signs) and their colors. We found that, combined with adversarial training, our approach led to up to 25.18\% higher robust accuracy compared to state-of-the-art methods against two adversary types, while further increasing accuracy on benign inputs. Notably, a user study we conducted showed that traffic signs produced by our approach are also easily recognizable by human subjects.
- Abstract(参考訳): 逆の例は、機械学習の課題として現れました。
それらを妨げるために、ほとんどの防御はモデルがどのように訓練されるか(例えば、敵の訓練)、または推論されるか(例えば、ランダム化された平滑化)を変える。
それでも、これらのアプローチはモデルの対向的堅牢性を大幅に改善する一方で、モデルは対向的な例に非常に影響を受けやすいままである。
交通信号認識などの特定の領域において, 対象物は, 対象物(例えば, 記号)がどのように設計されるべきかを規定する基準に従って実装されていることを確認し, 敵の強靭性を改善するための新しいアプローチを提案する。
具体的には、標準を再定義し、既存の標準に小さな変更を加え、敵の例から防御する方法を提供する。
本稿では, 厳密な最適化問題としてアーティファクト設計の問題を定式化し, その解法として勾配に基づく, 強欲な探索法を提案する。
交通信号認識の分野における我々のアプローチを評価し,交通信号ピクトグラム(記号)とその色を変更することを可能にした。
その結果, 対人訓練と組み合わせることで, 2つの対人タイプに対する最先端の手法と比較して, 25.18 % の頑健な精度が向上し, 良性入力の精度が向上した。
特に,本研究により得られた交通標識は,人体でも容易に認識できることが示唆された。
関連論文リスト
- Optimization-Guided Diffusion for Interactive Scene Generation [52.23368750264419]
本稿では,拡散型サンプリングにおける構造的一貫性と相互作用認識を実現するための,最適化誘導型トレーニングフリーフレームワークであるOMEGAを提案する。
OMEGAは生成リアリズム,一貫性,可制御性を向上し,身体的および行動学的に有効なシーンの比率を増大させることを示す。
当社のアプローチでは,3秒未満の時間対コリションで,より近いコリジョンフレームを5ドル(約5,500円)で生成することも可能だ。
論文 参考訳(メタデータ) (2025-12-08T15:56:18Z) - The Outline of Deception: Physical Adversarial Attacks on Traffic Signs Using Edge Patches [6.836569632189732]
本研究は,交通標識分類のためのステルス対応逆パッチ方式TESP-Attackを提案する。
人間の視覚的注意は主に交通標識の中央領域に焦点を当てているという観察に基づいて, エッジアライメントマスクを生成するために, ケースセグメンテーションを採用している。
U-Netジェネレータは敵パッチの作成に利用され、色とテクスチャの制約によって最適化される。
論文 参考訳(メタデータ) (2025-11-30T07:26:07Z) - T2I-Based Physical-World Appearance Attack against Traffic Sign Recognition Systems in Autonomous Driving [40.067678927952336]
交通信号認識(TSR)システムは、自律運転(AD)システムにおいて重要な役割を果たす。
最近の研究は、その脆弱性を物理世界の敵対的外見攻撃に暴露している。
我々は、新しいT2Iベースの外観攻撃フレームワークであるDiffSignを紹介する。
論文 参考訳(メタデータ) (2025-11-17T04:29:55Z) - Contrastive Learning-Driven Traffic Sign Perception: Multi-Modal Fusion of Text and Vision [2.0720154517628417]
オープン語彙検出とクロスモーダル学習を組み合わせた新しいフレームワークを提案する。
交通信号検出のために,NanoVerse YOLOモデルは視覚言語パス集約ネットワーク(RepVL-PAN)とSPD-Convモジュールを統合している。
交通標識分類のための交通信号認識マルチモーダルコントラスト学習モデル(TSR-MCL)を設計した。
TT100Kデータセットでは,全クラス認識のためのロングテール検出タスクにおいて,最先端の78.4%mAPを実現する。
論文 参考訳(メタデータ) (2025-07-31T08:23:30Z) - Robust and Safe Traffic Sign Recognition using N-version with Weighted Voting [5.087405608698016]
N-version machine learning (NVML) フレームワークを提案する。
本手法では、FMEA(Failure Mode and Effects Analysis)を用いて、潜在的な安全性リスクを評価し、アンサンブル出力に動的で安全性に配慮した重みを割り当てる。
実験により,NVML手法は,対向条件下での交通標識認識システムの堅牢性と安全性を著しく向上させることが示された。
論文 参考訳(メタデータ) (2025-07-09T14:46:31Z) - ROAD: Responsibility-Oriented Reward Design for Reinforcement Learning in Autonomous Driving [6.713954449470747]
本研究では,交通規制を具体化する責任指向報酬関数をReinforcement Learningフレームワークに導入する。
本稿では,交通規制知識グラフを導入し,視覚・言語モデルと検索・拡張生成手法を併用して報酬の割り当てを自動化する。
論文 参考訳(メタデータ) (2025-05-30T08:00:51Z) - A Knowledge-guided Adversarial Defense for Resisting Malicious Visual Manipulation [93.28532038721816]
視覚的操作の悪意ある応用は、多くの分野でユーザーのセキュリティと評判に深刻な脅威をもたらしている。
本稿では,悪質な操作モデルを積極的に強制し,意味論的に混乱したサンプルを出力するために,知識誘導型敵防衛(KGAD)を提案する。
論文 参考訳(メタデータ) (2025-04-11T10:18:13Z) - A Meaningful Perturbation Metric for Evaluating Explainability Methods [55.09730499143998]
本稿では,画像生成モデルを用いて標的摂動を行う新しい手法を提案する。
具体的には,画像の忠実さを保ちながら,入力画像の高関連画素のみを塗布し,モデルの予測を変更することに焦点を当てる。
これは、しばしばアウト・オブ・ディストリビューションの修正を生み出し、信頼できない結果をもたらす既存のアプローチとは対照的である。
論文 参考訳(メタデータ) (2025-04-09T11:46:41Z) - A Multi-Loss Strategy for Vehicle Trajectory Prediction: Combining Off-Road, Diversity, and Directional Consistency Losses [68.68514648185828]
軌道予測は、自動運転車における計画の安全性と効率に不可欠である。
現在のモデルでは、複雑な交通規則と潜在的な車両の動きを完全に捉えることができないことが多い。
本研究は, オフロード損失, 方向整合誤差, ダイバーシティ損失の3つの新しい損失関数を紹介する。
論文 参考訳(メタデータ) (2024-11-29T14:47:08Z) - RED: Robust Environmental Design [0.0]
本研究では,広範囲なパッチベースの攻撃に対して堅牢な道路標識を自動設計するアタッカーに依存しない学習手法を提案する。
デジタル環境と物理環境の両方で実施された実証実験により、我々のアプローチは攻撃に対する脆弱性を著しく減らし、既存の技術より優れていることが示された。
論文 参考訳(メタデータ) (2024-11-26T01:38:51Z) - SAFE-SIM: Safety-Critical Closed-Loop Traffic Simulation with Diffusion-Controllable Adversaries [94.84458417662407]
制御可能なクローズドループ安全クリティカルシミュレーションフレームワークであるSAFE-SIMを紹介する。
提案手法は,1)現実の環境を深く反映した現実的な長距離安全クリティカルシナリオの生成,2)より包括的でインタラクティブな評価のための制御可能な敵行動の提供,の2つの利点をもたらす。
複数のプランナにまたがるnuScenesとnuPlanデータセットを使用して、我々のフレームワークを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Certified Interpretability Robustness for Class Activation Mapping [77.58769591550225]
本稿では,解釈可能性マップのためのCORGI(Certifiable prOvable Robustness Guarantees)を提案する。
CORGIは入力画像を取り込み、そのCAM解釈可能性マップのロバスト性に対する証明可能な下限を与えるアルゴリズムである。
交通標識データを用いたケーススタディによるCORGIの有効性を示す。
論文 参考訳(メタデータ) (2023-01-26T18:58:11Z) - Learning Transferable Adversarial Robust Representations via Multi-view
Consistency [57.73073964318167]
デュアルエンコーダを用いたメタ逆多視点表現学習フレームワークを提案する。
未確認領域からの少数ショット学習タスクにおけるフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2022-10-19T11:48:01Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - SafeAMC: Adversarial training for robust modulation recognition models [53.391095789289736]
通信システムには、Deep Neural Networks(DNN)モデルに依存する変調認識など、多くのタスクがある。
これらのモデルは、逆方向の摂動、すなわち、誤分類を引き起こすために作られた知覚不能な付加音に影響を受けやすいことが示されている。
本稿では,自動変調認識モデルのロバスト性を高めるために,逆方向の摂動を伴うモデルを微調整する逆方向トレーニングを提案する。
論文 参考訳(メタデータ) (2021-05-28T11:29:04Z) - Deepfake Forensics via An Adversarial Game [99.84099103679816]
顔偽造と画像・映像品質の両面での一般化能力向上のための対人訓練を提唱する。
AIベースの顔操作は、しばしば、一般化が困難であるモデルによって容易に発見できる高周波アーティファクトにつながることを考慮し、これらの特定のアーティファクトを曖昧にしようとする新しい逆トレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-03-25T02:20:08Z) - Targeted Physical-World Attention Attack on Deep Learning Models in Road
Sign Recognition [79.50450766097686]
本稿では,現実の道路標識攻撃に対するTAA手法を提案する。
実験の結果,TAA法は攻撃成功率(約10%)を向上し,RP2法と比較して摂動損失(約4分の1)を減少させることがわかった。
論文 参考訳(メタデータ) (2020-10-09T02:31:34Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z) - Opportunities and Challenges in Deep Learning Adversarial Robustness: A
Survey [1.8782750537161614]
本稿では,機械学習アルゴリズムの安全性を保証するために,強靭に訓練されたアルゴリズムを実装するための戦略について検討する。
我々は、敵の攻撃と防衛を分類し、ロバスト最適化問題をmin-max設定で定式化し、それを3つのサブカテゴリに分類する。
論文 参考訳(メタデータ) (2020-07-01T21:00:32Z) - Class-Aware Domain Adaptation for Improving Adversarial Robustness [27.24720754239852]
学習データに敵の例を注入することにより,ネットワークを訓練するための敵の訓練が提案されている。
そこで本研究では,対人防御のための新しいクラスアウェアドメイン適応法を提案する。
論文 参考訳(メタデータ) (2020-05-10T03:45:19Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。