論文の概要: OTJR: Optimal Transport Meets Optimal Jacobian Regularization for
Adversarial Robustness
- arxiv url: http://arxiv.org/abs/2303.11793v2
- Date: Fri, 13 Oct 2023 07:37:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-16 18:09:47.000326
- Title: OTJR: Optimal Transport Meets Optimal Jacobian Regularization for
Adversarial Robustness
- Title(参考訳): OTJR: 対向ロバストネスに対する最適ジャコビアン正規化
- Authors: Binh M. Le, Shahroz Tariq, Simon S. Woo
- Abstract要約: 対人訓練(AT)とヤコビ正規化(Jacobian regularization)の複雑さについて検討した。
我々は,入力出力ジャコビアン正規化をATに組み込んだ,SystemNameと呼ばれるジャコビアン正規化手法を用いた新しい最適輸送法を提案する。
CIFAR-10では51.41%、CIFAR-100データセットでは28.49%のアキュラティを達成できた。
- 参考スコア(独自算出の注目度): 27.923344040692744
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Web, as a rich medium of diverse content, has been constantly under the
threat of malicious entities exploiting its vulnerabilities, especially with
the rapid proliferation of deep learning applications in various web services.
One such vulnerability, crucial to the fidelity and integrity of web content,
is the susceptibility of deep neural networks to adversarial perturbations,
especially concerning images - a dominant form of data on the web. In light of
the recent advancements in the robustness of classifiers, we delve deep into
the intricacies of adversarial training (AT) and Jacobian regularization, two
pivotal defenses. Our work {is the} first carefully analyzes and characterizes
these two schools of approaches, both theoretically and empirically, to
demonstrate how each approach impacts the robust learning of a classifier.
Next, we propose our novel Optimal Transport with Jacobian regularization
method, dubbed~\SystemName, jointly incorporating the input-output Jacobian
regularization into the AT by leveraging the optimal transport theory. In
particular, we employ the Sliced Wasserstein (SW) distance that can efficiently
push the adversarial samples' representations closer to those of clean samples,
regardless of the number of classes within the dataset. The SW distance
provides the adversarial samples' movement directions, which are much more
informative and powerful for the Jacobian regularization. Our empirical
evaluations set a new standard in the domain, with our method achieving
commendable accuracies of 51.41\% on the ~\CIFAR-10 and 28.49\% on the
~\CIFAR-100 datasets under the AutoAttack metric. In a real-world
demonstration, we subject images sourced from the Internet to online
adversarial attacks, reinforcing the efficacy and relevance of our model in
defending against sophisticated web-image perturbations.
- Abstract(参考訳): 多様なコンテンツのリッチな媒体としてのwebは、その脆弱性を悪用する悪意のあるエンティティの脅威に常にさらされている。
このような脆弱性の1つは、Webコンテンツの忠実さと完全性に不可欠なもので、深いニューラルネットワークが敵対的な摂動、特に画像に関して、Web上の支配的な形式のデータに対する感受性がある。
近年の分類器の堅牢性向上に鑑み,2つの重要な防御手段である対人訓練(AT)とヤコビ正規化の複雑さを深く掘り下げる。
この2つのアプローチを理論的にも経験的にも慎重に分析し、それぞれのアプローチが分類器のロバストな学習にどのように影響するかを実証します。
次に, 入力出力ジャコビアン正則化をat に結合し, 最適輸送理論を活用し, ジャコビアン正則化法(-\systemname)を用いた新しい最適輸送法を提案する。
特にsliced wasserstein (sw) 距離を用いることで,データセット内のクラス数に関わらず,逆のサンプル表現をクリーンなサンプルの表現に効率的に近づけることができる。
SW距離は、反対サンプルの運動方向を与えるが、これはヤコビアン正則化にとってより情報的かつ強力である。
実験的な評価では,AutoAttack 測定値の下での ~\CIFAR-10 で 51.41\%, ~\CIFAR-100 で 28.49\% の補正精度を達成できた。
実世界のデモでは、インターネットから引き起こされた画像をオンラインの敵攻撃に適用し、洗練されたWeb画像の摂動を防御する上で、我々のモデルの有効性と妥当性を強化する。
関連論文リスト
- FACTUAL: A Novel Framework for Contrastive Learning Based Robust SAR Image Classification [10.911464455072391]
FACTUALは、逆行訓練と堅牢なSAR分類のためのコントラストラーニングフレームワークである。
本モデルでは, 洗浄試料の99.7%, 摂動試料の89.6%の精度が得られた。
論文 参考訳(メタデータ) (2024-04-04T06:20:22Z) - READ: Improving Relation Extraction from an ADversarial Perspective [33.44949503459933]
関係抽出(RE)に特化して設計された対角的学習法を提案する。
提案手法では,シーケンスレベルの摂動とトークンレベルの摂動の両方をサンプルに導入し,個別の摂動語彙を用いてエンティティとコンテキストの摂動の探索を改善する。
論文 参考訳(メタデータ) (2024-04-02T16:42:44Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Self-Ensemble Adversarial Training for Improved Robustness [14.244311026737666]
敵の訓練は、あらゆる種類の防衛方法において、様々な敵の攻撃に対する最強の戦略である。
最近の研究は主に新しい損失関数や正規化器の開発に重点を置いており、重み空間の特異な最適点を見つけようとしている。
我々は,歴史モデルの重みを平均化し,頑健な分類器を生成するための,単純だが強力なemphSelf-Ensemble Adversarial Training (SEAT)法を考案した。
論文 参考訳(メタデータ) (2022-03-18T01:12:18Z) - Jacobian Regularization for Mitigating Universal Adversarial
Perturbations [2.9465623430708905]
UAP(Universal Adversarial Perturbations)は、大規模なデータセットでニューラルネットワークを騙すことができる入力摂動である。
データ依存ヤコビアンのノルムに基づくUPAの有効性の上限を導出する。
論文 参考訳(メタデータ) (2021-04-21T11:00:21Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。