論文の概要: An Analysis of Robustness of Non-Lipschitz Networks
- arxiv url: http://arxiv.org/abs/2010.06154v4
- Date: Tue, 18 Apr 2023 18:16:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-20 19:13:16.145168
- Title: An Analysis of Robustness of Non-Lipschitz Networks
- Title(参考訳): 非Lipschitzネットワークのロバスト性の解析
- Authors: Maria-Florina Balcan and Avrim Blum and Dravyansh Sharma and Hongyang
Zhang
- Abstract要約: 小さな入力摂動は、しばしばネットワークの最終層の特徴空間において大きな動きを引き起こす。
我々のモデルでは、敵対者は特徴空間において任意の距離でデータを移動することができるが、ランダムな低次元部分空間においてのみである。
データ駆動方式を用いて,アルゴリズムパラメータの設定を精度保持トレードオフよりも最適化するための理論的保証を提供する。
- 参考スコア(独自算出の注目度): 35.64511156980701
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite significant advances, deep networks remain highly susceptible to
adversarial attack. One fundamental challenge is that small input perturbations
can often produce large movements in the network's final-layer feature space.
In this paper, we define an attack model that abstracts this challenge, to help
understand its intrinsic properties. In our model, the adversary may move data
an arbitrary distance in feature space but only in random low-dimensional
subspaces. We prove such adversaries can be quite powerful: defeating any
algorithm that must classify any input it is given. However, by allowing the
algorithm to abstain on unusual inputs, we show such adversaries can be
overcome when classes are reasonably well-separated in feature space. We
further provide strong theoretical guarantees for setting algorithm parameters
to optimize over accuracy-abstention trade-offs using data-driven methods. Our
results provide new robustness guarantees for nearest-neighbor style
algorithms, and also have application to contrastive learning, where we
empirically demonstrate the ability of such algorithms to obtain high robust
accuracy with low abstention rates. Our model is also motivated by strategic
classification, where entities being classified aim to manipulate their
observable features to produce a preferred classification, and we provide new
insights into that area as well.
- Abstract(参考訳): 大きな進歩にもかかわらず、ディープネットワークは敵の攻撃を受けやすいままである。
基本的な課題の1つは、小さな入力の摂動がネットワークの最終層の特徴空間において大きな動きを生じさせることである。
本稿では,この課題を抽象化した攻撃モデルを定義し,その本質的特性を理解する。
我々のモデルでは、逆者は任意の距離を特徴空間内で移動させるが、ランダムな低次元部分空間でのみデータを移動することができる。
このような敵は、与えられた任意の入力を分類しなければならないアルゴリズムを倒すことで、非常に強力であることを示す。
しかし、アルゴリズムが異常な入力を許容できるようにすることで、クラスが特徴空間において合理的に分離された場合に、そのような敵を克服できることを示す。
さらに,データ駆動手法を用いた精度回避トレードオフを最適化するためにアルゴリズムパラメータを設定するための強い理論的保証を提供する。
提案手法は,近距離-neighbor型アルゴリズムに対する新たなロバスト性保証を提供するとともに,コントラスト学習への応用も行なっており,低抑止率で高いロバスト性を得るためのアルゴリズムの能力が実証的に実証されている。
我々のモデルは戦略的な分類にも動機付けられており、分類対象のエンティティは、望ましい分類を生成するために観測可能な特徴を操作することを目的としている。
関連論文リスト
- Provable Optimization for Adversarial Fair Self-supervised Contrastive Learning [49.417414031031264]
本稿では,自己教師型学習環境におけるフェアエンコーダの学習について検討する。
すべてのデータはラベル付けされておらず、そのごく一部だけが機密属性で注釈付けされている。
論文 参考訳(メタデータ) (2024-06-09T08:11:12Z) - Sparse and Transferable Universal Singular Vectors Attack [5.498495800909073]
そこで本研究では, よりスムーズなホワイトボックス対逆攻撃を提案する。
我々のアプローチは、ジャコビアン行列の隠れた層の$(p,q)$-singularベクトルにスパーシティを提供するトラルキャットパワーに基づいている。
本研究は,攻撃をスパースする最先端モデルの脆弱性を実証し,堅牢な機械学習システムの開発の重要性を強調した。
論文 参考訳(メタデータ) (2024-01-25T09:21:29Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Wasserstein distributional robustness of neural networks [9.79503506460041]
ディープニューラルネットワークは敵攻撃(AA)に弱いことが知られている
画像認識タスクでは、元の小さな摂動によって画像が誤分類される可能性がある。
本稿では,Wassersteinの分散ロバスト最適化(DRO)技術を用いて問題を再検討し,新しいコントリビューションを得た。
論文 参考訳(メタデータ) (2023-06-16T13:41:24Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Second Order Optimization for Adversarial Robustness and
Interpretability [6.700873164609009]
本稿では,2次近似による第1次及び第2次情報を対向損失に組み込んだ新しい正則化器を提案する。
正規化器における1つの繰り返しのみを用いることで、先行勾配や曲率正規化よりも強い強靭性が得られることが示されている。
それは、ネットワークが人間の知覚によく適合する機能を学ぶという、ATの興味深い側面を保っている。
論文 参考訳(メタデータ) (2020-09-10T15:05:14Z) - A black-box adversarial attack for poisoning clustering [78.19784577498031]
本稿では,クラスタリングアルゴリズムのロバスト性をテストするために,ブラックボックス対逆攻撃法を提案する。
我々の攻撃は、SVM、ランダムフォレスト、ニューラルネットワークなどの教師付きアルゴリズムに対しても転送可能であることを示す。
論文 参考訳(メタデータ) (2020-09-09T18:19:31Z) - Opportunities and Challenges in Deep Learning Adversarial Robustness: A
Survey [1.8782750537161614]
本稿では,機械学習アルゴリズムの安全性を保証するために,強靭に訓練されたアルゴリズムを実装するための戦略について検討する。
我々は、敵の攻撃と防衛を分類し、ロバスト最適化問題をmin-max設定で定式化し、それを3つのサブカテゴリに分類する。
論文 参考訳(メタデータ) (2020-07-01T21:00:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。