論文の概要: Certifiable (Multi)Robustness Against Patch Attacks Using ERM
- arxiv url: http://arxiv.org/abs/2303.08944v1
- Date: Wed, 15 Mar 2023 21:30:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 17:50:51.885027
- Title: Certifiable (Multi)Robustness Against Patch Attacks Using ERM
- Title(参考訳): ERMを用いたパッチ攻撃に対する認証(マルチ)ロバスト性
- Authors: Saba Ahmadi, Avrim Blum, Omar Montasser, Kevin Stangl
- Abstract要約: Patch-Cleanser (Xiang et al. [2022])の最近の攻撃に対する防御について検討する。
Patch-Cleanserアルゴリズムは2マスクの正当性を持つために予測モデルを必要とする。
本研究では,EMMオラクルを用いて2つのマスク操作に頑健な予測子を学習するアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 16.7947327426365
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Consider patch attacks, where at test-time an adversary manipulates a test
image with a patch in order to induce a targeted misclassification. We consider
a recent defense to patch attacks, Patch-Cleanser (Xiang et al. [2022]). The
Patch-Cleanser algorithm requires a prediction model to have a ``two-mask
correctness'' property, meaning that the prediction model should correctly
classify any image when any two blank masks replace portions of the image.
Xiang et al. learn a prediction model to be robust to two-mask operations by
augmenting the training set with pairs of masks at random locations of training
images and performing empirical risk minimization (ERM) on the augmented
dataset.
However, in the non-realizable setting when no predictor is perfectly correct
on all two-mask operations on all images, we exhibit an example where ERM
fails. To overcome this challenge, we propose a different algorithm that
provably learns a predictor robust to all two-mask operations using an ERM
oracle, based on prior work by Feige et al. [2015]. We also extend this result
to a multiple-group setting, where we can learn a predictor that achieves low
robust loss on all groups simultaneously.
- Abstract(参考訳): テスト時に相手がテストイメージをパッチで操作し、ターゲットの誤分類を誘導するパッチ攻撃を考える。
Patch-Cleanser (Xiang et al. [2022])の最近の攻撃に対する防御について検討する。
Patch-Cleanserアルゴリズムは、"two-mask correctness'プロパティを持つように予測モデルを必要とする。
Xiangらは、トレーニング画像のランダムな位置にあるマスクのペアでトレーニングセットを増強し、拡張データセット上で経験的リスク最小化(ERM)を実行することにより、2マスク操作に対して堅牢な予測モデルを学習する。
しかし、すべての画像上の2マスク操作に対して予測器が完全に正しくないような実現不可能な環境では、ERMが失敗する例を示す。
この課題を克服するために,feigeらによる先行研究に基づいて,erm oracleを用いて,すべての2マスク操作にロバストな予測器を確実に学習する別のアルゴリズムを提案する。
[2015].
また、この結果を複数のグループ設定に拡張し、同時に全てのグループに対してロバスト損失の少ない予測子を学習する。
関連論文リスト
- Best Arm Identification with Fixed Budget: A Large Deviation Perspective [54.305323903582845]
我々は、様々な武器の報酬間の経験的ギャップに基づいて、あらゆるラウンドで腕を拒絶できる真に適応的なアルゴリズムであるsredを提示する。
特に、様々な武器の報酬の間の経験的ギャップに基づいて、あらゆるラウンドで腕を拒絶できる真に適応的なアルゴリズムであるsredを提示する。
論文 参考訳(メタデータ) (2023-12-19T13:17:43Z) - Optimal Multi-Distribution Learning [88.3008613028333]
マルチディストリビューション学習は、$k$の異なるデータ分散における最悪のリスクを最小限に抑える共有モデルを学ぶことを目指している。
本稿では, (d+k)/varepsilon2の順に, サンプルの複雑さを伴って, ヴァレプシロン最適ランダム化仮説を導出するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-08T16:06:29Z) - Instance-Dependent Confidence and Early Stopping for Reinforcement
Learning [99.57168572237421]
強化学習(RL)のための様々なアルゴリズムは、その収束率の劇的な変動を問題構造の関数として示している。
この研究は、観察されたパフォーマンスの違いについて、textitexを説明する保証を提供する。
次の自然なステップは、これらの理論的保証を実際に有用なガイドラインに変換することです。
論文 参考訳(メタデータ) (2022-01-21T04:25:35Z) - Online Sign Identification: Minimization of the Number of Errors in
Thresholding Bandits [27.09804256642197]
我々はFrank-Wolfeアルゴリズムにインスパイアされたアルゴリズム群を紹介する。
我々は幅広い問題に対して新しい明示的アルゴリズムを構築した。
我々はこの現象を洞察に富んだおもちゃの問題で説明する。
論文 参考訳(メタデータ) (2021-10-18T09:36:36Z) - Efficient First-Order Contextual Bandits: Prediction, Allocation, and
Triangular Discrimination [82.52105963476703]
統計的学習、オンライン学習、その他における繰り返しのテーマは、低騒音の問題に対してより速い収束率が可能であることである。
1次保証は統計的およびオンライン学習において比較的よく理解されている。
三角識別と呼ばれる対数損失と情報理論量が一階保証を得る上で基本的な役割を担っていることを示す。
論文 参考訳(メタデータ) (2021-07-05T19:20:34Z) - Improved Algorithms for Agnostic Pool-based Active Classification [20.12178157010804]
プールに依存しない環境でのバイナリ分類のためのアクティブラーニングを検討する。
我々のアルゴリズムは、画像分類データセットにおけるアートアクティブな学習アルゴリズムの状況よりも優れている。
論文 参考訳(メタデータ) (2021-05-13T18:24:30Z) - Iterative Weak Learnability and Multi-Class AdaBoost [0.0]
SAMMEに触発されたマルチクラス分類問題に対する効率的なアンサンブルアルゴリズムを構築する。
SAMMEとは対照的に、アルゴリズムの最終仮説は確率1の正しいラベルに収束する。
サンプルサイズのみに依存する訓練誤差と追加項の和は,適応ブースティングアルゴリズムとしてアルゴリズムの一般化誤差を限定する。
論文 参考訳(メタデータ) (2021-01-26T03:30:30Z) - Instance-Dependent Complexity of Contextual Bandits and Reinforcement
Learning: A Disagreement-Based Perspective [104.67295710363679]
古典的なマルチアームバンディット問題において、インスタンス依存アルゴリズムは、ベストとセカンドベストのアーム間のギャップで「容易」な問題のパフォーマンスを向上させる。
我々は、インスタンス依存の後悔境界を得るのに十分かつ必要である複雑性尺度のファミリーを導入する。
次に、可能な限りギャップに適応する新しいオラクル効率アルゴリズムを導入し、最悪の場合にはミニマックスレートを得る。
論文 参考訳(メタデータ) (2020-10-07T01:33:06Z) - Bias no more: high-probability data-dependent regret bounds for
adversarial bandits and MDPs [48.44657553192801]
我々は,適応的相手に対する盗聴フィードバックを用いたオンライン学習において,高い確率的後悔境界を得るための新しいアプローチを開発した。
我々のアプローチは、対数的に均質な自己協和障壁と強化されたフリードマンの不平等の助けを借りて、単純な学習率のスケジュールの増大に依存している。
論文 参考訳(メタデータ) (2020-06-14T22:09:27Z) - Discriminative Learning via Adaptive Questioning [6.378513792050356]
本稿では,候補の能力を複数のカテゴリの1つに最適に分類する,適応的な質問列を設計する問題を考察する。
候補の能力は未知のパラメータとしてモデル化され、質問の難易度とともに、s/h が質問に正しく答えられる可能性を決定する。
論文 参考訳(メタデータ) (2020-04-11T16:50:00Z) - The Simulator: Understanding Adaptive Sampling in the
Moderate-Confidence Regime [52.38455827779212]
エミュレータと呼ばれる適応サンプリングを解析するための新しい手法を提案する。
適切なログファクタを組み込んだトップk問題の最初のインスタンスベースの下位境界を証明します。
我々の新しい分析は、後者の問題に対するこの種の最初のエミュレータであるベストアームとトップkの識別に、シンプルでほぼ最適であることを示した。
論文 参考訳(メタデータ) (2017-02-16T23:42:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。