論文の概要: AGNES: Abstraction-guided Framework for Deep Neural Networks Security
- arxiv url: http://arxiv.org/abs/2311.04009v1
- Date: Tue, 7 Nov 2023 14:05:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 15:26:25.701882
- Title: AGNES: Abstraction-guided Framework for Deep Neural Networks Security
- Title(参考訳): AGNES: ディープニューラルネットワークセキュリティのための抽象化誘導フレームワーク
- Authors: Akshay Dhonthi, Marcello Eiermann, Ernst Moritz Hahn, Vahid Hashemi
- Abstract要約: ディープニューラルネットワーク(DNN)は、特に安全クリティカルな領域で広く普及している。
1つの応用は、自律運転における画像認識である。
DNNはバックドアに傾向があり、正しい分類とは無関係である画像の属性に集中している。
本稿では,画像認識のためのDNNのバックドア検出ツールAGNESを紹介する。
- 参考スコア(独自算出の注目度): 0.6827423171182154
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep Neural Networks (DNNs) are becoming widespread, particularly in
safety-critical areas. One prominent application is image recognition in
autonomous driving, where the correct classification of objects, such as
traffic signs, is essential for safe driving. Unfortunately, DNNs are prone to
backdoors, meaning that they concentrate on attributes of the image that should
be irrelevant for their correct classification. Backdoors are integrated into a
DNN during training, either with malicious intent (such as a manipulated
training process, because of which a yellow sticker always leads to a traffic
sign being recognised as a stop sign) or unintentional (such as a rural
background leading to any traffic sign being recognised as animal crossing,
because of biased training data).
In this paper, we introduce AGNES, a tool to detect backdoors in DNNs for
image recognition. We discuss the principle approach on which AGNES is based.
Afterwards, we show that our tool performs better than many state-of-the-art
methods for multiple relevant case studies.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は特に安全クリティカルな領域で広く普及している。
1つの顕著な応用は、自動運転における画像認識であり、安全な運転には、交通標識などの物体の正確な分類が不可欠である。
残念なことに、DNNはバックドアに近づきやすいため、正しい分類とは無関係な画像の属性に集中している。
バックドアは、トレーニング中にdnnに統合され、悪意のある意図(操作されたトレーニングプロセスのような、黄色のステッカーが常に停止標識として認識される交通標識につながるため)や意図しない(バイアスのあるトレーニングデータのために、あらゆる交通標識が動物横断と認識される田舎の背景など)。
本稿では,画像認識のためのDNNのバックドア検出ツールであるAGNESを紹介する。
我々はAGNESを基盤とする原則的アプローチについて議論する。
その後,本手法は複数のケーススタディにおいて,多くの最先端手法よりも優れた性能を示した。
関連論文リスト
- Explainable and Trustworthy Traffic Sign Detection for Safe Autonomous
Driving: An Inductive Logic Programming Approach [0.0]
自動走行車における停止信号検出のためのILPに基づくアプローチを提案する。
それは人間のような知覚を模倣するため、敵の攻撃に対してより堅牢である。
PR2やADvCamの攻撃があっても、標的とするすべての停止標識を正しく識別することができる。
論文 参考訳(メタデータ) (2023-08-30T09:05:52Z) - Backdoor Mitigation in Deep Neural Networks via Strategic Retraining [0.0]
ディープニューラルネットワーク(DNN)は、アシストと自動運転においてますます重要になっている。
特に問題なのは、隠れたバックドアの傾向にあることだ。
本稿では,バックドアを除去する新しい手法を提案する。
論文 参考訳(メタデータ) (2022-12-14T15:22:32Z) - Efficient Federated Learning with Spike Neural Networks for Traffic Sign
Recognition [70.306089187104]
我々は、エネルギー効率と高速モデルトレーニングのための交通信号認識に強力なスパイクニューラルネットワーク(SNN)を導入している。
数値的な結果から,提案するフェデレーションSNNは,従来のフェデレーション畳み込みニューラルネットワークよりも精度,ノイズ免疫性,エネルギー効率に優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-05-28T03:11:48Z) - Black-box Safety Analysis and Retraining of DNNs based on Feature
Extraction and Clustering [0.9590956574213348]
DNNエラーの根本原因を自動的に識別するブラックボックスアプローチであるSAFEを提案する。
これは、ImageNetで事前訓練された転送学習モデルを使用して、エラー誘発画像から特徴を抽出する。
次に、密度に基づくクラスタリングアルゴリズムを適用し、誤りのもっともらしい原因をモデル化した画像の任意の形状のクラスタを検出する。
論文 参考訳(メタデータ) (2022-01-13T17:02:57Z) - Background Adaptive Faster R-CNN for Semi-Supervised Convolutional
Object Detection of Threats in X-Ray Images [64.39996451133268]
我々は、バックグラウンド適応型高速R-CNNと呼ばれる脅威認識のための半教師付きアプローチを提案する。
本手法は,ディープラーニング分野からのドメイン適応手法を用いた2段階物体検出器の訓練手法である。
2つのドメイン識別器(1つはオブジェクト提案を識別し、もう1つは画像特徴を識別する)は、ドメイン固有の情報を符号化するのを防ぐために敵対的に訓練される。
これにより、手作業の背景から抽出した特徴の統計と実世界のデータとを一致させることで、脅威検出の誤報率を低減することができる。
論文 参考訳(メタデータ) (2020-10-02T21:05:13Z) - Noise-Response Analysis of Deep Neural Networks Quantifies Robustness
and Fingerprints Structural Malware [48.7072217216104]
ディープ・ニューラル・ネットワーク(DNN)は構造的マルウェア(すなわち、重みと活性化経路)を持つ
バックドアの検出は一般的に困難であり、既存の検出手法は計算に高価であり、膨大なリソースを必要とする(トレーニングデータへのアクセスなど)。
そこで本研究では,DNNの堅牢性,指紋の非線形性を定量化し,バックドアの検出を可能にする,高速な特徴生成手法を提案する。
実験の結果,既存の手法(秒対秒)よりも高い信頼度でバックドアを正確に検出できることが判明した。
論文 参考訳(メタデータ) (2020-07-31T23:52:58Z) - TopoAL: An Adversarial Learning Approach for Topology-Aware Road
Segmentation [56.353558147044]
我々は,我々の目的に合わせたAL(Adversarial Learning)戦略を導入する。
我々は,道路網のどの部分が正しいかを示すラベルピラミッドを返す,より洗練された識別器を使用している。
挑戦的なRoadTracerデータセットでは、最先端のものよりも優れています。
論文 参考訳(メタデータ) (2020-07-17T16:06:45Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Defending against Backdoor Attack on Deep Neural Networks [98.45955746226106]
トレーニングデータの一部にバックドアトリガーを注入する、いわゆるテキストバックドア攻撃について検討する。
実験の結果,本手法は攻撃成功率を効果的に低減し,クリーン画像の分類精度も高いことがわかった。
論文 参考訳(メタデータ) (2020-02-26T02:03:00Z) - Supporting DNN Safety Analysis and Retraining through Heatmap-based
Unsupervised Learning [1.6414392145248926]
本稿では,DNNエラーの根本原因の自動同定を支援するHUDDを提案する。
HUDDは、結果に対する全てのDNNニューロンの関連性を捉えたヒートマップにクラスタリングアルゴリズムを適用することで、根本原因を特定する。
また、HUDDは識別された画像クラスタと関連性に基づいて自動的に選択される画像でDNNを再訓練する。
論文 参考訳(メタデータ) (2020-02-03T16:16:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。