論文の概要: Knowledge Enhanced Machine Learning Pipeline against Diverse Adversarial
Attacks
- arxiv url: http://arxiv.org/abs/2106.06235v1
- Date: Fri, 11 Jun 2021 08:37:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-14 22:59:28.015156
- Title: Knowledge Enhanced Machine Learning Pipeline against Diverse Adversarial
Attacks
- Title(参考訳): 多様な敵の攻撃に対する知識強化機械学習パイプライン
- Authors: Nezihe Merve G\"urel, Xiangyu Qi, Luka Rimanic, Ce Zhang, Bo Li
- Abstract要約: ドメイン知識をグラフィカルモデルに統合するための知識強化機械学習パイプライン(KEMLP)を提案する。
特に,主DNNモデルとの論理的関係に基づいて,多様な弱補助モデルを統合することで,KEMLPを開発する。
KEMLPは, 対人訓練やその他のベースラインと比較して, 物理的攻撃に対する高い堅牢性, $mathcalL_p$境界攻撃, 予期せぬ攻撃, および自然汚職を実現する。
- 参考スコア(独自算出の注目度): 10.913817907524454
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the great successes achieved by deep neural networks (DNNs), recent
studies show that they are vulnerable against adversarial examples, which aim
to mislead DNNs by adding small adversarial perturbations. Several defenses
have been proposed against such attacks, while many of them have been
adaptively attacked. In this work, we aim to enhance the ML robustness from a
different perspective by leveraging domain knowledge: We propose a Knowledge
Enhanced Machine Learning Pipeline (KEMLP) to integrate domain knowledge (i.e.,
logic relationships among different predictions) into a probabilistic graphical
model via first-order logic rules. In particular, we develop KEMLP by
integrating a diverse set of weak auxiliary models based on their logical
relationships to the main DNN model that performs the target task.
Theoretically, we provide convergence results and prove that, under mild
conditions, the prediction of KEMLP is more robust than that of the main DNN
model. Empirically, we take road sign recognition as an example and leverage
the relationships between road signs and their shapes and contents as domain
knowledge. We show that compared with adversarial training and other baselines,
KEMLP achieves higher robustness against physical attacks, $\mathcal{L}_p$
bounded attacks, unforeseen attacks, and natural corruptions under both
whitebox and blackbox settings, while still maintaining high clean accuracy.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)によって達成された大きな成功にもかかわらず、最近の研究は、DNNを小さな敵の摂動を加えることで誤解を招くことを目的とした、敵の例に対して脆弱であることを示している。
このような攻撃に対していくつかの防衛策が提案され、その多くが適応攻撃を受けた。
本研究では、ドメイン知識を活用することでMLのロバスト性を高めることを目的としている。 ドメイン知識(例えば、異なる予測間のロジック関係)を1次論理ルールを介して確率的グラフィカルモデルに統合する知識強化機械学習パイプライン(KEMLP)を提案する。
特に,対象タスクを実行する主dnnモデルと論理関係に基づいて,多様な弱補助モデルを統合することで,kemlpを開発した。
理論的には、収束結果を提供し、穏やかな条件下では、KEMLPの予測がメインのDNNモデルよりも頑健であることを示す。
実証的に,道路標識認識を例として捉え,道路標識とその形状と内容との関係をドメイン知識として活用する。
敵のトレーニングやその他のベースラインと比較すると、kemlpは物理的攻撃に対する高い堅牢性、$\mathcal{l}_p$ 境界攻撃、予期せぬ攻撃、ホワイトボックスとブラックボックスの設定下での自然な腐敗を実現し、高いクリーンな精度を維持している。
関連論文リスト
- Improving the Robustness of Quantized Deep Neural Networks to White-Box
Attacks using Stochastic Quantization and Information-Theoretic Ensemble
Training [1.6098666134798774]
ディープニューラルネットワーク(DNN)を使用する現実世界のほとんどのアプリケーションは、計算ニーズを減らすためにそれらを低精度で量子化する。
ホワイトボックス攻撃に対する量子化DNNのロバスト性を改善する手法を提案する。
論文 参考訳(メタデータ) (2023-11-30T17:15:58Z) - Exploring the Vulnerabilities of Machine Learning and Quantum Machine
Learning to Adversarial Attacks using a Malware Dataset: A Comparative
Analysis [0.0]
機械学習(ML)と量子機械学習(QML)は、複雑な問題に対処する上で大きな可能性を示している。
敵攻撃に対する感受性は、これらのシステムをセキュリティに敏感なアプリケーションにデプロイする際の懸念を引き起こす。
本稿では,マルウェアデータセットを用いた敵攻撃に対するMLモデルとQNNモデルの脆弱性の比較分析を行う。
論文 参考訳(メタデータ) (2023-05-31T06:31:42Z) - CARE: Certifiably Robust Learning with Reasoning via Variational
Inference [26.210129662748862]
推論パイプライン(CARE)を用いた頑健な学習を提案する。
CAREは、最先端のベースラインに比べて、かなり高い信頼性のロバスト性を達成する。
さらに,CAREの実証的ロバスト性および知識統合の有効性を示すために,異なるアブレーション研究を行った。
論文 参考訳(メタデータ) (2022-09-12T07:15:52Z) - Latent Boundary-guided Adversarial Training [61.43040235982727]
モデルトレーニングに敵の例を注入する最も効果的な戦略は、敵のトレーニングであることが証明されている。
本稿では, LAtent bounDary-guided aDvErsarial tRaining という新たな逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-08T07:40:55Z) - Exploring Architectural Ingredients of Adversarially Robust Deep Neural
Networks [98.21130211336964]
ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが知られている。
本稿では,ネットワーク幅と深さがDNNの強靭性に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2021-10-07T23:13:33Z) - KNN-BERT: Fine-Tuning Pre-Trained Models with KNN Classifier [61.063988689601416]
事前学習されたモデルは、クロスエントロピー損失によって最適化された線形分類器を用いて、微調整された下流タスクに広く利用されている。
これらの問題は、同じクラスの類似点と、予測を行う際の矛盾点に焦点を当てた表現を学習することで改善することができる。
本稿では、事前訓練されたモデル微調整タスクにおけるKNearest Neighborsについて紹介する。
論文 参考訳(メタデータ) (2021-10-06T06:17:05Z) - Neural Architecture Dilation for Adversarial Robustness [56.18555072877193]
畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
論文 参考訳(メタデータ) (2021-08-16T03:58:00Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z) - Robustness of Bayesian Neural Networks to Gradient-Based Attacks [9.966113038850946]
敵対的攻撃に対する脆弱性は、安全クリティカルなアプリケーションでディープラーニングを採用する上で、大きなハードルのひとつです。
データ分布の縮退の結果、勾配に基づく攻撃に対する脆弱性が生じることを示す。
以上の結果から,BNN後頭葉は勾配に基づく対向攻撃に対して頑健であることが示唆された。
論文 参考訳(メタデータ) (2020-02-11T13:03:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。