論文の概要: Adversarial Robustness Through Artifact Design
- arxiv url: http://arxiv.org/abs/2402.04660v1
- Date: Wed, 7 Feb 2024 08:49:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 16:17:49.365368
- Title: Adversarial Robustness Through Artifact Design
- Title(参考訳): アーチファクトデザインによる対向ロバスト性
- Authors: Tsufit Shua and Mahmood Sharif
- Abstract要約: 敵の強靭性を改善するための新しい手法を提案する。
具体的には、標準を再定義し、既存の標準に小さな変更を加え、敵の例から防御する方法を提供する。
交通信号認識の分野における我々のアプローチを評価し,交通信号ピクトグラムとその色を変更する。
- 参考スコア(独自算出の注目度): 2.7221002226360804
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Adversarial examples arose as a challenge for machine learning. To hinder
them, most defenses alter how models are trained (e.g., adversarial training)
or inference is made (e.g., randomized smoothing). Still, while these
approaches markedly improve models' adversarial robustness, models remain
highly susceptible to adversarial examples. Identifying that, in certain
domains such as traffic-sign recognition, objects are implemented per standards
specifying how artifacts (e.g., signs) should be designed, we propose a novel
approach for improving adversarial robustness. Specifically, we offer a method
to redefine standards, making minor changes to existing ones, to defend against
adversarial examples. We formulate the problem of artifact design as a robust
optimization problem, and propose gradient-based and greedy search methods to
solve it. We evaluated our approach in the domain of traffic-sign recognition,
allowing it to alter traffic-sign pictograms (i.e., symbols within the signs)
and their colors. We found that, combined with adversarial training, our
approach led to up to 25.18\% higher robust accuracy compared to
state-of-the-art methods against two adversary types, while further increasing
accuracy on benign inputs.
- Abstract(参考訳): 逆例は機械学習の課題として生まれた。
それらを妨げるために、ほとんどの防御はモデルの訓練方法(例えば、敵の訓練)や推論方法(例えば、ランダム化平滑化)を変える。
それでも、これらのアプローチはモデルの対向的堅牢性を大幅に改善する一方で、モデルは対向的な例に非常に影響を受けやすいままである。
トラヒックサイン認識などの特定の領域において、アーティファクト(例えばサイン)がどのように設計されるべきかを規定する標準に従ってオブジェクトが実装されていることを識別するため、敵対的ロバスト性を改善するための新しいアプローチを提案する。
具体的には、標準を再定義し、既存の標準に小さな変更を加え、敵の例から防御する方法を提供する。
我々は,アーチファクト設計の問題をロバストな最適化問題として定式化し,グラデーションベースおよびグリーディ探索法を提案する。
交通信号認識の分野における我々のアプローチを評価し,交通信号ピクトグラム(記号)とその色を変更することを可能にした。
その結果, 対人訓練と組み合わせることで, 2つの対人タイプに対する最先端の手法と比較して, 25.18 % の頑健な精度が向上し, 良性入力の精度が向上した。
関連論文リスト
- RED: Robust Environmental Design [0.0]
本研究では,広範囲なパッチベースの攻撃に対して堅牢な道路標識を自動設計するアタッカーに依存しない学習手法を提案する。
デジタル環境と物理環境の両方で実施された実証実験により、我々のアプローチは攻撃に対する脆弱性を著しく減らし、既存の技術より優れていることが示された。
論文 参考訳(メタデータ) (2024-11-26T01:38:51Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Learning Transferable Adversarial Robust Representations via Multi-view
Consistency [57.73073964318167]
デュアルエンコーダを用いたメタ逆多視点表現学習フレームワークを提案する。
未確認領域からの少数ショット学習タスクにおけるフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2022-10-19T11:48:01Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - Deepfake Forensics via An Adversarial Game [99.84099103679816]
顔偽造と画像・映像品質の両面での一般化能力向上のための対人訓練を提唱する。
AIベースの顔操作は、しばしば、一般化が困難であるモデルによって容易に発見できる高周波アーティファクトにつながることを考慮し、これらの特定のアーティファクトを曖昧にしようとする新しい逆トレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-03-25T02:20:08Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z) - Opportunities and Challenges in Deep Learning Adversarial Robustness: A
Survey [1.8782750537161614]
本稿では,機械学習アルゴリズムの安全性を保証するために,強靭に訓練されたアルゴリズムを実装するための戦略について検討する。
我々は、敵の攻撃と防衛を分類し、ロバスト最適化問題をmin-max設定で定式化し、それを3つのサブカテゴリに分類する。
論文 参考訳(メタデータ) (2020-07-01T21:00:32Z) - Class-Aware Domain Adaptation for Improving Adversarial Robustness [27.24720754239852]
学習データに敵の例を注入することにより,ネットワークを訓練するための敵の訓練が提案されている。
そこで本研究では,対人防御のための新しいクラスアウェアドメイン適応法を提案する。
論文 参考訳(メタデータ) (2020-05-10T03:45:19Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。