論文の概要: TESDA: Transform Enabled Statistical Detection of Attacks in Deep Neural
Networks
- arxiv url: http://arxiv.org/abs/2110.08447v1
- Date: Sat, 16 Oct 2021 02:10:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 21:02:40.683737
- Title: TESDA: Transform Enabled Statistical Detection of Attacks in Deep Neural
Networks
- Title(参考訳): TESDA: ディープニューラルネットワークにおける攻撃の統計的検出を可能にする変換
- Authors: Chandramouli Amarnath (Georgia Tech), Aishwarya H. Balwani (Georgia
Tech), Kwondo Ma (Georgia Tech), Abhijit Chatterjee (Georgia Tech)
- Abstract要約: 攻撃のオンライン検出のための,低オーバーヘッド,フレキシブル,統計的根拠を持ったTESDAを提案する。
従来の作業とは異なり、動作の相違を検出するために、リアルタイムに動作する専用のハードウェアも、トロイの木馬トリガーの存在も必要ありません。
複数のアーキテクチャ、データセット、多様な攻撃にまたがって、我々の方法の有用性と実用性を実証的に確立する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep neural networks (DNNs) are now the de facto choice for computer vision
tasks such as image classification. However, their complexity and "black box"
nature often renders the systems they're deployed in vulnerable to a range of
security threats. Successfully identifying such threats, especially in
safety-critical real-world applications is thus of utmost importance, but still
very much an open problem. We present TESDA, a low-overhead, flexible, and
statistically grounded method for {online detection} of attacks by exploiting
the discrepancies they cause in the distributions of intermediate layer
features of DNNs. Unlike most prior work, we require neither dedicated hardware
to run in real-time, nor the presence of a Trojan trigger to detect
discrepancies in behavior. We empirically establish our method's usefulness and
practicality across multiple architectures, datasets and diverse attacks,
consistently achieving detection coverages of above 95% with operation count
overheads as low as 1-2%.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、画像分類などのコンピュータビジョンタスクの事実上の選択である。
しかしながら、その複雑さと“ブラックボックス”の性質は、さまざまなセキュリティ脅威に対して、デプロイされているシステムを脆弱にします。
このような脅威、特に安全性に批判的な実世界のアプリケーションを特定することは最も重要であるが、それでも非常にオープンな問題である。
本稿では,DNNの中間層特性の分布に生じる相違点を利用した,低オーバーヘッド,フレキシブル,統計的に基盤とした攻撃検出手法であるTESDAを提案する。
従来の作業とは異なり、動作の相違を検出するために、リアルタイムに動作する専用のハードウェアも、トロイの木馬トリガーの存在も必要ありません。
我々は,複数のアーキテクチャ,データセット,多様な攻撃にまたがる手法の有用性と実用性を実証的に確立し,運用オーバヘッドを最大1~2%に抑えながら,95%以上の検出カバレッジを一貫して達成した。
関連論文リスト
- Advancing Security in AI Systems: A Novel Approach to Detecting
Backdoors in Deep Neural Networks [3.489779105594534]
バックドアは、ディープニューラルネットワーク(DNN)上の悪意あるアクターと、データ処理のためのクラウドサービスによって悪用される。
提案手法は高度テンソル分解アルゴリズムを利用して,事前学習したDNNの重みを慎重に解析し,バックドアモデルとクリーンモデルとの区別を行う。
この進歩は、ネットワークシステムにおけるディープラーニングとAIのセキュリティを強化し、新興技術の脅威の進化に対して不可欠なサイバーセキュリティを提供する。
論文 参考訳(メタデータ) (2024-03-13T03:10:11Z) - Unfolding Local Growth Rate Estimates for (Almost) Perfect Adversarial
Detection [22.99930028876662]
畳み込みニューラルネットワーク(CNN)は、多くの知覚的タスクにおける最先端のソリューションを定義する。
現在のCNNアプローチは、システムを騙すために特別に作られた入力の敵の摂動に対して脆弱なままである。
本稿では,ネットワークの局所固有次元(LID)と敵攻撃の関係について,最近の知見を生かした,シンプルで軽量な検出器を提案する。
論文 参考訳(メタデータ) (2022-12-13T17:51:32Z) - Self-Supervised Masked Convolutional Transformer Block for Anomaly
Detection [122.4894940892536]
本稿では, 自己監督型マスク型畳み込み変圧器ブロック (SSMCTB) について述べる。
本研究では,従来の自己教師型予測畳み込み抑止ブロック(SSPCAB)を3次元マスク付き畳み込み層,チャンネルワイドアテンション用トランスフォーマー,およびハマーロスに基づく新たな自己教師型目標を用いて拡張する。
論文 参考訳(メタデータ) (2022-09-25T04:56:10Z) - Towards Adversarial-Resilient Deep Neural Networks for False Data
Injection Attack Detection in Power Grids [7.351477761427584]
偽データインジェクション攻撃(FDIA)は、電力システムの状態推定に重大なセキュリティ上の脅威をもたらす。
最近の研究では、機械学習(ML)技術、特にディープニューラルネットワーク(DNN)が提案されている。
論文 参考訳(メタデータ) (2021-02-17T22:26:34Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Experimental Review of Neural-based approaches for Network Intrusion
Management [8.727349339883094]
本稿では,侵入検出問題に適用したニューラルネットワーク手法の実験的検討を行う。
私たちは、ディープベースアプローチやウェイトレスニューラルネットワークを含む、侵入検出に関連する最も顕著なニューラルネットワークベースのテクニックの完全なビューを提供します。
我々の評価は、特に最先端のデータセットを使用してモデルのトレーニングを行う場合、ニューラルネットワークの価値を定量化する。
論文 参考訳(メタデータ) (2020-09-18T18:32:24Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - Cassandra: Detecting Trojaned Networks from Adversarial Perturbations [92.43879594465422]
多くの場合、事前トレーニングされたモデルは、トロイの木馬の振る舞いをモデルに挿入するためにトレーニングパイプラインを中断したかもしれないベンダーから派生している。
本稿では,事前学習したモデルがトロイの木馬か良馬かを検証する手法を提案する。
本手法は,ニューラルネットワークの指紋を,ネットワーク勾配から学習した逆方向の摂動の形でキャプチャする。
論文 参考訳(メタデータ) (2020-07-28T19:00:40Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - A cognitive based Intrusion detection system [0.0]
侵入検知は、コンピュータネットワークのセキュリティを提供する重要なメカニズムの1つである。
本稿では,Deep Neural Network Ans Supportctor Machine Classifierに基づく新しい手法を提案する。
提案手法は, 侵入検知に類似した手法により, より精度良く攻撃を予測できる。
論文 参考訳(メタデータ) (2020-05-19T13:30:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。