論文の概要: Protecting Classifiers From Attacks. A Bayesian Approach
- arxiv url: http://arxiv.org/abs/2004.08705v1
- Date: Sat, 18 Apr 2020 21:21:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 05:18:30.674377
- Title: Protecting Classifiers From Attacks. A Bayesian Approach
- Title(参考訳): 攻撃から分類器を保護する。
ベイズ的アプローチ
- Authors: Victor Gallego, Roi Naveiro, Alberto Redondo, David Rios Insua,
Fabrizio Ruggeri
- Abstract要約: 我々は,攻撃者の行動に関する正確な知識の欠如を,敵対的リスク分析を用いて考慮した代替的ベイズ的枠組みを提供する。
本研究では, 近似ベイズ計算に基づくサンプリング手法を提案する。
大規模問題に対して、微分可能な分類器を扱う際に使用できる代替のスケーラブルなアプローチを提案する。
- 参考スコア(独自算出の注目度): 0.9449650062296823
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Classification problems in security settings are usually modeled as
confrontations in which an adversary tries to fool a classifier manipulating
the covariates of instances to obtain a benefit. Most approaches to such
problems have focused on game-theoretic ideas with strong underlying common
knowledge assumptions, which are not realistic in the security realm. We
provide an alternative Bayesian framework that accounts for the lack of precise
knowledge about the attacker's behavior using adversarial risk analysis. A key
ingredient required by our framework is the ability to sample from the
distribution of originating instances given the possibly attacked observed one.
We propose a sampling procedure based on approximate Bayesian computation, in
which we simulate the attacker's problem taking into account our uncertainty
about his elements. For large scale problems, we propose an alternative,
scalable approach that could be used when dealing with differentiable
classifiers. Within it, we move the computational load to the training phase,
simulating attacks from an adversary, adapting the framework to obtain a
classifier robustified against attacks.
- Abstract(参考訳): セキュリティ設定における分類問題は、通常、敵がインスタンスの共変量を操作する分類器を騙して利益を得ようとする対立としてモデル化される。
このような問題に対するほとんどのアプローチは、セキュリティ領域では現実的ではない強力な共通知識仮定を持つゲーム理論のアイデアに焦点を当てている。
我々は,攻撃者の行動に関する正確な知識の欠如を,敵対的リスク分析を用いて考慮したベイズフレームワークを提案する。
我々のフレームワークが必要とする重要な要素は、攻撃される可能性のある観測例の分布からサンプリングできることである。
そこで本研究では, 近似ベイズ計算に基づくサンプリング手法を提案し, 彼の要素の不確実性を考慮した攻撃者の問題をシミュレートする。
大規模問題に対して、微分可能な分類器を扱う際に使用できる代替のスケーラブルなアプローチを提案する。
その内部では、計算負荷をトレーニングフェーズに移動させ、敵からの攻撃をシミュレートし、フレームワークを適用して攻撃に対して堅牢な分類器を得る。
関連論文リスト
- Understanding the Vulnerability of Skeleton-based Human Activity
Recognition via Black-box Attack [41.04797759476035]
骨格に基づくヒト活動認識(HAR)における最初のブラックボックス対逆攻撃手法を提案する。
BASARは分類境界と自然運動多様体の間の相互作用を探索する。
BASARは、分類器、緩和、攻撃モードにまたがって攻撃を成功させることができることを示す。
論文 参考訳(メタデータ) (2022-11-21T09:51:28Z) - Towards Fair Classification against Poisoning Attacks [52.57443558122475]
攻撃者が少数のサンプルを訓練データに挿入できる毒殺シナリオについて検討する。
本稿では,従来の防犯手法に適合する汎用的かつ理論的に保証された枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-18T00:49:58Z) - Defending Substitution-Based Profile Pollution Attacks on Sequential
Recommenders [8.828396559882954]
本稿では,ある脆弱な要素を選択し,それを逆数要素に置換することで,入力シーケンスを修飾する置換型逆数攻撃アルゴリズムを提案する。
また、ディリクレ近傍サンプリングと呼ばれる効率的な対角防御手法を設計する。
特に,選択した項目を1ホットエンコーディングで表現し,エンコーディングの勾配上昇を行い,トレーニング中の項目埋め込みの最悪の場合の線形結合を探索する。
論文 参考訳(メタデータ) (2022-07-19T00:19:13Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Localized Uncertainty Attacks [9.36341602283533]
深層学習モデルに対する局所的不確実性攻撃を示す。
我々は、分類器が不確実な入力の領域のみを摂動することで、逆例を作成する。
$ell_p$ ballやパーターブ入力を無差別に検出する機能攻撃とは異なり、ターゲットとする変更は認識できない。
論文 参考訳(メタデータ) (2021-06-17T03:07:22Z) - Towards Defending against Adversarial Examples via Attack-Invariant
Features [147.85346057241605]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
敵の強靭性は、敵の例を利用して改善することができる。
目に見えない種類の敵の例に基づいて訓練されたモデルは、一般的に、目に見えない種類の敵の例にうまく一般化できない。
論文 参考訳(メタデータ) (2021-06-09T12:49:54Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - Adversarial Example Games [51.92698856933169]
Adrial Example Games (AEG) は、敵の例の製作をモデル化するフレームワークである。
AEGは、ある仮説クラスからジェネレータとアバーサを反対に訓練することで、敵の例を設計する新しい方法を提供する。
MNIST と CIFAR-10 データセットに対する AEG の有効性を示す。
論文 参考訳(メタデータ) (2020-07-01T19:47:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。