論文の概要: Sensitive Samples Revisited: Detecting Neural Network Attacks Using
Constraint Solvers
- arxiv url: http://arxiv.org/abs/2109.03966v1
- Date: Tue, 7 Sep 2021 01:34:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-11 12:15:48.354129
- Title: Sensitive Samples Revisited: Detecting Neural Network Attacks Using
Constraint Solvers
- Title(参考訳): 敏感なサンプル:制約解を用いたニューラルネットワーク攻撃の検出
- Authors: Amel Nestor Docena (Northeastern University), Thomas Wahl
(Northeastern University), Trevor Pearce (Northeastern University), Yunsi Fei
(Northeastern University)
- Abstract要約: ニューラルネットワークは多くのセキュリティ関連および安全性関連ドメインで使用されている。
それらは、その分類能力を覆す攻撃の標的として人気がある。
本稿では,シンボリック制約解法を用いた代替案を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Networks are used today in numerous security- and safety-relevant
domains and are, as such, a popular target of attacks that subvert their
classification capabilities, by manipulating the network parameters. Prior work
has introduced sensitive samples -- inputs highly sensitive to parameter
changes -- to detect such manipulations, and proposed a gradient ascent-based
approach to compute them. In this paper we offer an alternative, using symbolic
constraint solvers. We model the network and a formal specification of a
sensitive sample in the language of the solver and ask for a solution. This
approach supports a rich class of queries, corresponding, for instance, to the
presence of certain types of attacks. Unlike earlier techniques, our approach
does not depend on convex search domains, or on the suitability of a starting
point for the search. We address the performance limitations of constraint
solvers by partitioning the search space for the solver, and exploring the
partitions according to a balanced schedule that still retains completeness of
the search. We demonstrate the impact of the use of solvers in terms of
functionality and search efficiency, using a case study for the detection of
Trojan attacks on Neural Networks.
- Abstract(参考訳): ニューラルネットワークは現在、多くのセキュリティおよび安全関連ドメインで使用されており、ネットワークパラメータを操作することで、分類能力を低下させる一般的な攻撃対象となっている。
以前の作業では、パラメータの変更に非常に敏感な入力であるセンシティブなサンプルを導入して、そのような操作を検出し、それらを計算するための勾配に基づくアプローチを提案した。
本稿では,シンボリック制約解法を用いた代替案を提案する。
我々は,ネットワークをモデル化し,解答者の言語におけるセンシティブなサンプルの正式な仕様を作成し,解を求める。
このアプローチは、例えば特定のタイプの攻撃の存在に対応する、リッチなクエリクラスをサポートする。
従来の手法とは異なり,提案手法は凸探索領域や検索開始点の適合性に依存しない。
本稿では,探索空間を分割し,探索の完全性を維持したバランスの取れたスケジュールに従って分割を探索することにより,制約解決器の性能限界に対処する。
本稿では,ニューラルネットワークに対するトロイの木馬攻撃検出のためのケーススタディを用いて,機能と探索効率の観点から,解法の利用が与える影響を実証する。
関連論文リスト
- Detecting Adversarial Attacks in Semantic Segmentation via Uncertainty Estimation: A Deep Analysis [12.133306321357999]
セグメンテーションのためのニューラルネットワークに対する敵攻撃を検出する不確実性に基づく手法を提案する。
我々は,不確実性に基づく敵攻撃の検出と様々な最先端ニューラルネットワークの詳細な解析を行う。
提案手法の有効性を示す数値実験を行った。
論文 参考訳(メタデータ) (2024-08-19T14:13:30Z) - Automated Design of Linear Bounding Functions for Sigmoidal Nonlinearities in Neural Networks [23.01933325606068]
既存の完全検証技術は、すべての堅牢性クエリに対して証明可能な保証を提供するが、小さなニューラルネットワークを超えてスケールするのに苦労する。
本稿では,これらの線形近似の品質向上のためのパラメータ探索手法を提案する。
具体的には、最先端のアルゴリズム構成手法によって与えられた検証問題に慎重に適応する単純な探索手法を用いることで、最先端技術よりも平均で25%のグローバルローバウンドを向上することを示す。
論文 参考訳(メタデータ) (2024-06-14T16:16:26Z) - Few-Shot Anomaly Detection with Adversarial Loss for Robust Feature
Representations [8.915958745269442]
異常検出は、データセット内の通常のパターンや分布から逸脱したデータポイントを特定することを目的とした、重要で困難なタスクである。
ワンクラス・ワン・モデル手法を用いて様々な手法が提案されているが、これらの手法はメモリ不足や訓練に十分なデータを必要とするといった現実的な問題に直面していることが多い。
本稿では,より堅牢で一般化された特徴表現を得るために,対向訓練損失を統合する数発の異常検出手法を提案する。
論文 参考訳(メタデータ) (2023-12-04T09:45:02Z) - Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - Large-Scale Sequential Learning for Recommender and Engineering Systems [91.3755431537592]
本稿では,現在の状況に適応してパーソナライズされたランキングを提供する自動アルゴリズムの設計に焦点を当てる。
前者はSAROSと呼ばれる新しいアルゴリズムを提案し,インタラクションの順序を学習するためのフィードバックの種類を考慮に入れている。
提案手法は, 電力網の故障検出に対する初期アプローチと比較して, 統計的に有意な結果を示す。
論文 参考訳(メタデータ) (2022-05-13T21:09:41Z) - Adversarial Machine Learning In Network Intrusion Detection Domain: A
Systematic Review [0.0]
ディープラーニングモデルは、誤った分類決定を行うためにモデルを誤解させる可能性のあるデータインスタンスに対して脆弱であることがわかった。
本調査では,ネットワーク侵入検出分野における敵機械学習のさまざまな側面を利用した研究について検討する。
論文 参考訳(メタデータ) (2021-12-06T19:10:23Z) - Incorporating domain knowledge into neural-guided search [3.1542695050861544]
AutoMLの問題は、ブラックボックスの報酬の下で離散オブジェクトを最適化することである。
ニューラル誘導探索は、自己回帰リカレントニューラルネットワークを用いてこれらの空間を探索する柔軟な手段を提供する。
我々は,ニューラルネットワークによる探索にそのようなin situの事前と制約を組み込むための枠組みを定式化する。
論文 参考訳(メタデータ) (2021-07-19T22:34:43Z) - Multi-Source Domain Adaptation for Object Detection [52.87890831055648]
我々は、Divide-and-Merge Spindle Network (DMSN)と呼ばれる、より高速なR-CNNベースのフレームワークを提案する。
DMSNはドメイン非ネイティブを同時に強化し、識別力を維持することができる。
擬似目標部分集合の最適パラメータを近似する新しい擬似学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-06-30T03:17:20Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Toward Scalable and Unified Example-based Explanation and Outlier
Detection [128.23117182137418]
我々は,試行錯誤の予測に例ベースの説明を与えることのできる,プロトタイプベースの学生ネットワークのより広範な採用を論じる。
類似カーネル以外のプロトタイプベースのネットワークは,分類精度を損なうことなく,有意義な説明と有望な外乱検出結果が得られることを示す。
論文 参考訳(メタデータ) (2020-11-11T05:58:17Z) - A black-box adversarial attack for poisoning clustering [78.19784577498031]
本稿では,クラスタリングアルゴリズムのロバスト性をテストするために,ブラックボックス対逆攻撃法を提案する。
我々の攻撃は、SVM、ランダムフォレスト、ニューラルネットワークなどの教師付きアルゴリズムに対しても転送可能であることを示す。
論文 参考訳(メタデータ) (2020-09-09T18:19:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。