論文の概要: Constraining the Attack Space of Machine Learning Models with
Distribution Clamping Preprocessing
- arxiv url: http://arxiv.org/abs/2205.08989v1
- Date: Wed, 18 May 2022 15:20:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-19 12:42:02.684004
- Title: Constraining the Attack Space of Machine Learning Models with
Distribution Clamping Preprocessing
- Title(参考訳): 分散クランプ前処理による機械学習モデルの攻撃空間の制約
- Authors: Ryan Feng, Somesh Jha, Atul Prakash
- Abstract要約: 理想的なプリプロセッサ関数を任意の入力を受け取り、最も近いインディストリビューション入力に設定する関数として定式化する。
次に、パッチアタックの文脈でこの問題に対する緩和された解決策を説明します。
これらの制約により、入力の事前処理が成功し、CARLAオブジェクト検出の堅牢性が向上する。
- 参考スコア(独自算出の注目度): 27.644893449553024
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Preprocessing and outlier detection techniques have both been applied to
neural networks to increase robustness with varying degrees of success. In this
paper, we formalize the ideal preprocessor function as one that would take any
input and set it to the nearest in-distribution input. In other words, we
detect any anomalous pixels and set them such that the new input is
in-distribution. We then illustrate a relaxed solution to this problem in the
context of patch attacks. Specifically, we demonstrate that we can model
constraints on the patch attack that specify regions as out of distribution.
With these constraints, we are able to preprocess inputs successfully,
increasing robustness on CARLA object detection.
- Abstract(参考訳): 前処理と外れ値検出技術はいずれもニューラルネットワークに適用され、さまざまな成功度で堅牢性を高めている。
本稿では,理想的なプリプロセッサ関数を任意の入力を受け取り,最も近い入出力に設定する関数として定式化する。
言い換えれば、任意の異常画素を検出して、新しい入力が分散しているようにセットする。
次に、パッチアタックの文脈でこの問題に対する緩和された解決策を説明します。
具体的には、分布外領域を指定するパッチアタックの制約をモデル化できることを実証する。
これらの制約により、入力の事前処理が成功し、CARLAオブジェクト検出の堅牢性が向上する。
関連論文リスト
- VeriFlow: Modeling Distributions for Neural Network Verification [4.3012765978447565]
フォーマル検証は、ニューラルネットワークの安全性と信頼性を保証するための有望な方法として登場した。
本稿では,流れに基づく密度モデルとしてVeriFlowアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-06-20T12:41:39Z) - A Pseudo-Semantic Loss for Autoregressive Models with Logical
Constraints [87.08677547257733]
ニューロシンボリックAIは、純粋にシンボリックな学習とニューラルな学習のギャップを埋める。
本稿では,ニューラルネットワークの出力分布に対するシンボリック制約の可能性を最大化する方法を示す。
また,スドクと最短経路予測の手法を自己回帰世代として評価した。
論文 参考訳(メタデータ) (2023-12-06T20:58:07Z) - Wasserstein distributional robustness of neural networks [9.79503506460041]
ディープニューラルネットワークは敵攻撃(AA)に弱いことが知られている
画像認識タスクでは、元の小さな摂動によって画像が誤分類される可能性がある。
本稿では,Wassersteinの分散ロバスト最適化(DRO)技術を用いて問題を再検討し,新しいコントリビューションを得た。
論文 参考訳(メタデータ) (2023-06-16T13:41:24Z) - Certifying Model Accuracy under Distribution Shifts [151.67113334248464]
本稿では,データ分布の有界ワッサースタインシフトの下でのモデルの精度について,証明可能なロバスト性保証を提案する。
変換空間におけるモデルの入力をランダム化する単純な手順は、変換の下での分布シフトに対して確実に堅牢であることを示す。
論文 参考訳(メタデータ) (2022-01-28T22:03:50Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Training on Test Data with Bayesian Adaptation for Covariate Shift [96.3250517412545]
ディープニューラルネットワークは、信頼できない不確実性推定で不正確な予測を行うことが多い。
分布シフトの下でのラベルなし入力とモデルパラメータとの明確に定義された関係を提供するベイズモデルを導出する。
本手法は精度と不確実性の両方を向上することを示す。
論文 参考訳(メタデータ) (2021-09-27T01:09:08Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - PatchUp: A Regularization Technique for Convolutional Neural Networks [19.59198017238128]
畳み込みニューラルネットワーク(CNN)のための隠れ状態ブロックレベルの正規化手法であるPatchUpを提案する。
提案手法は,MixupやCutMixといった他の最先端混合手法で発生する多様体侵入問題に対するCNNモデルのロバスト性を改善する。
また、PatchUpはサンプルのアフィン変換をより一般化し、敵攻撃に対してより堅牢であることを示す。
論文 参考訳(メタデータ) (2020-06-14T04:28:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。