論文の概要: GGT: Graph-Guided Testing for Adversarial Sample Detection of Deep
Neural Network
- arxiv url: http://arxiv.org/abs/2107.07043v1
- Date: Fri, 9 Jul 2021 12:12:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-18 12:33:39.663197
- Title: GGT: Graph-Guided Testing for Adversarial Sample Detection of Deep
Neural Network
- Title(参考訳): GGT:ディープニューラルネットワークの逆サンプル検出のためのグラフガイドテスト
- Authors: Zuohui Chen, Renxuan Wang, Jingyang Xiang, Yue Yu, Xin Xia, Shouling
Ji, Qi Xuan, and Xiaoniu Yang
- Abstract要約: 本稿では,これらの課題を克服するために,逆サンプル検出のためのグラフガイドテスト(GGT)を提案する。
GGT はグラフ特性をガイドしたプルーンドモデルを生成するが、それぞれ MMT の変異モデルのパラメータは 5% 程度しか持たない。
CIFAR10 と SVHN の実験では、GGT が MMT よりも効率と効率の両方において優れていることが確認された。
- 参考スコア(独自算出の注目度): 23.707713579381235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNN) are known to be vulnerable to adversarial samples,
the detection of which is crucial for the wide application of these DNN models.
Recently, a number of deep testing methods in software engineering were
proposed to find the vulnerability of DNN systems, and one of them, i.e., Model
Mutation Testing (MMT), was used to successfully detect various adversarial
samples generated by different kinds of adversarial attacks. However, the
mutated models in MMT are always huge in number (e.g., over 100 models) and
lack diversity (e.g., can be easily circumvented by high-confidence adversarial
samples), which makes it less efficient in real applications and less effective
in detecting high-confidence adversarial samples. In this study, we propose
Graph-Guided Testing (GGT) for adversarial sample detection to overcome these
aforementioned challenges. GGT generates pruned models with the guide of graph
characteristics, each of them has only about 5% parameters of the mutated model
in MMT, and graph guided models have higher diversity. The experiments on
CIFAR10 and SVHN validate that GGT performs much better than MMT with respect
to both effectiveness and efficiency.
- Abstract(参考訳): ディープニューラルネットワーク(dnn)は、敵のサンプルに対して脆弱であることが知られており、その検出は、これらのdnnモデルの広範囲な適用に不可欠である。
近年、DNNシステムの脆弱性を見つけるために、ソフトウェア工学における多くの深層試験手法が提案され、その1つ、すなわちモデル変異テスト(MMT)は、様々な種類の敵攻撃によって生成された様々な敵のサンプルを正常に検出するために使用された。
しかし、MTMの変異モデルは、常に大きな数(例えば100モデル以上)であり、多様性の欠如(例えば、高信頼の敵検体では容易に回避できる)のため、実際の応用では効率が悪く、高信頼の敵検体の検出にも効果が低い。
本研究では,これらの課題を克服するために,逆サンプル検出のためのグラフガイドテスト(GGT)を提案する。
GGT はグラフ特性をガイドしたプルーニングモデルを生成し、それぞれ MMT の変異モデルのパラメータは5% 程度しかなく、グラフガイドモデルの方が多様性が高い。
CIFAR10 と SVHN の実験により、GGT は MMT よりも効率と効率の両面で優れていることが示された。
関連論文リスト
- DiffGAN: A Test Generation Approach for Differential Testing of Deep Neural Networks [0.30292136896203486]
DiffGANはディープニューラルネットワーク(DNN)の差分テストのためのブラックボックステスト画像生成手法である
それは多様で有効なトリガー入力を生成し、モデル間の振る舞いの相違を明らかにする。
その結果、DiffGANはSOTAベースラインを著しく上回り、同じ予算内で4倍のインプットをトリガーし、多様性と妥当性が向上した。
論文 参考訳(メタデータ) (2024-10-15T23:49:01Z) - Generalization of Graph Neural Networks is Robust to Model Mismatch [84.01980526069075]
グラフニューラルネットワーク(GNN)は、その一般化能力によってサポートされている様々なタスクにおいて、その効果を実証している。
本稿では,多様体モデルから生成される幾何グラフで動作するGNNについて検討する。
本稿では,そのようなモデルミスマッチの存在下でのGNN一般化の堅牢性を明らかにする。
論文 参考訳(メタデータ) (2024-08-25T16:00:44Z) - Online GNN Evaluation Under Test-time Graph Distribution Shifts [92.4376834462224]
オンラインGNN評価という新たな研究課題は、よく訓練されたGNNが現実世界の未ラベルグラフに一般化する能力について、貴重な洞察を提供することを目的としている。
我々は、よく訓練されたGNNモデルのテスト時間一般化誤差を推定するために、LeBeDと呼ばれる効果的な学習行動不一致スコアを開発する。
論文 参考訳(メタデータ) (2024-03-15T01:28:08Z) - HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - Normality Learning-based Graph Anomaly Detection via Multi-Scale
Contrastive Learning [61.57383634677747]
グラフ異常検出(GAD)は、機械学習やデータマイニングにおいて注目を集めている。
本稿では,マルチスケールコントラスト学習ネットワーク(NLGAD,略語)による正規性学習に基づくGADフレームワークを提案する。
特に,提案アルゴリズムは,最先端手法と比較して検出性能(最大5.89%のAUCゲイン)を向上させる。
論文 参考訳(メタデータ) (2023-09-12T08:06:04Z) - Adversarial Examples Detection with Enhanced Image Difference Features
based on Local Histogram Equalization [20.132066800052712]
本稿では,高頻度情報強調戦略に基づく逆例検出フレームワークを提案する。
このフレームワークは、敵の例と通常の例との特徴的差異を効果的に抽出し、増幅することができる。
論文 参考訳(メタデータ) (2023-05-08T03:14:01Z) - EMShepherd: Detecting Adversarial Samples via Side-channel Leakage [6.868995628617191]
敵対的攻撃は、ディープラーニングを駆使したクリティカルな応用にとって悲惨な結果をもたらす。
モデル実行の電磁的トレースを捕捉し、トレース上で処理を行い、敵検出に利用するためのフレームワークEMShepherdを提案する。
提案手法は,一般的に使用されているFPGA深層学習アクセラレータ上で,異なる敵攻撃を効果的に検出できることを実証する。
論文 参考訳(メタデータ) (2023-03-27T19:38:55Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - GANI: Global Attacks on Graph Neural Networks via Imperceptible Node
Injections [20.18085461668842]
グラフニューラルネットワーク(GNN)は、様々なグラフ関連タスクで成功している。
近年の研究では、多くのGNNが敵の攻撃に弱いことが示されている。
本稿では,偽ノードを注入することで,現実的な攻撃操作に焦点を当てる。
論文 参考訳(メタデータ) (2022-10-23T02:12:26Z) - Labeling-Free Comparison Testing of Deep Learning Models [28.47632100019289]
本研究では,ラベリング作業の限界を克服し,ランダム性をサンプリングするためのラベリングフリー比較試験手法を提案する。
提案手法は,データセットや分布シフトに関わらず,Spearmanの相関値とKendallの$tau$に対して,最大0.74および0.53のベースライン手法より優れている。
論文 参考訳(メタデータ) (2022-04-08T10:55:45Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。