論文の概要: Backdoor Vulnerabilities in Normally Trained Deep Learning Models
- arxiv url: http://arxiv.org/abs/2211.15929v1
- Date: Tue, 29 Nov 2022 04:55:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 17:51:46.396853
- Title: Backdoor Vulnerabilities in Normally Trained Deep Learning Models
- Title(参考訳): 訓練型ディープラーニングモデルにおけるバックドア脆弱性
- Authors: Guanhong Tao, Zhenting Wang, Siyuan Cheng, Shiqing Ma, Shengwei An,
Yingqi Liu, Guangyu Shen, Zhuo Zhang, Yunshu Mao, Xiangyu Zhang
- Abstract要約: 本研究は,通常訓練されたモデルにおいて,20種類のバックドア攻撃をガイダンスとして活用し,その対応性について検討する。
インターネットからダウンロードされる56のモデルには、315の自然のバックドアがあり、あらゆるカテゴリがカバーされています。
既存のスキャナーは、注入されたバックドア用に設計されており、少なくとも65個のバックドアを検知することができる。
- 参考スコア(独自算出の注目度): 23.821348581095105
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We conduct a systematic study of backdoor vulnerabilities in normally trained
Deep Learning models. They are as dangerous as backdoors injected by data
poisoning because both can be equally exploited. We leverage 20 different types
of injected backdoor attacks in the literature as the guidance and study their
correspondences in normally trained models, which we call natural backdoor
vulnerabilities. We find that natural backdoors are widely existing, with most
injected backdoor attacks having natural correspondences. We categorize these
natural backdoors and propose a general detection framework. It finds 315
natural backdoors in the 56 normally trained models downloaded from the
Internet, covering all the different categories, while existing scanners
designed for injected backdoors can at most detect 65 backdoors. We also study
the root causes and defense of natural backdoors.
- Abstract(参考訳): 通常訓練されたディープラーニングモデルにおけるバックドア脆弱性の系統的研究を行う。
どちらも同じように悪用できるので、データ中毒によって注入されるバックドアと同じくらい危険です。
文献では20種類のバックドア攻撃をガイダンスとして利用し、通常訓練されたモデルでそれらの対応について研究している。
ナチュラルバックドアは広く存在し、ほとんどのインジェクションバックドア攻撃には自然な対応がある。
我々はこれらの自然のバックドアを分類し、一般的な検出フレームワークを提案する。
インターネットからダウンロードされた56モデルのうち、自然のバックドアは315種類あり、あらゆるカテゴリをカバーしている。
自然のバックドアの根本原因と防御についても検討する。
関連論文リスト
- Rethinking Backdoor Detection Evaluation for Language Models [45.34806299803778]
バックドア攻撃は、公開された言語モデルに依存する実践者にとって大きなセキュリティリスクをもたらす。
バックドア検出方法は、リリースされたモデルにバックドアが含まれているかどうかを検出することを目的としている。
既存のバックドア検出手法は標準ベンチマークでバックドアモデルを検出するのに高い精度を持っているが、野生のバックドアを堅牢に識別できるかどうかは不明である。
論文 参考訳(メタデータ) (2024-08-31T09:19:39Z) - Flatness-aware Sequential Learning Generates Resilient Backdoors [7.969181278996343]
近年、バックドア攻撃は機械学習モデルのセキュリティに対する新たな脅威となっている。
本稿では,連続学習(CL)技術を活用して,バックドアのCFに対処する。
レジリエントなバックドアを生成可能な,SBL(Sequential Backdoor Learning)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-20T03:30:05Z) - Architectural Neural Backdoors from First Principles [44.83442736206931]
アーキテクチャバックドアは、ネットワークアーキテクチャの定義内に埋め込まれたバックドアです。
この作業では、人間の監督なしにアーキテクチャのバックドアとして使用できる任意のトリガー検出器を構築します。
アーキテクチャのバックドアに対する防御について議論し、MLシステムの完全性を保護するための堅牢で包括的な戦略の必要性を強調した。
論文 参考訳(メタデータ) (2024-02-10T13:57:51Z) - BackdoorBox: A Python Toolbox for Backdoor Learning [67.53987387581222]
このPythonツールボックスは、代表的で高度なバックドア攻撃と防御を実装している。
研究者や開発者は、ベンチマークやローカルデータセットで、さまざまなメソッドを簡単に実装し、比較することができる。
論文 参考訳(メタデータ) (2023-02-01T09:45:42Z) - DECK: Model Hardening for Defending Pervasive Backdoors [21.163501644177668]
広汎なバックドアは動的および広汎な入力摂動によって引き起こされる。
我々は,特殊な変換層で拡張されたエンコーダ・デコーダアーキテクチャに基づく汎用攻撃を開発する。
本手法は, 精度1%以下で平均59.65%の精度でクラス距離を拡大し, 損失を生じない。
論文 参考訳(メタデータ) (2022-06-18T19:46:06Z) - Neurotoxin: Durable Backdoors in Federated Learning [73.82725064553827]
連合学習システムは バックドア攻撃の訓練中に 固有の脆弱性がある
我々は,既存のバックドア攻撃に対する単純な一直線修正であるニューロトキシンを提案する。
論文 参考訳(メタデータ) (2022-06-12T16:52:52Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - Turn the Combination Lock: Learnable Textual Backdoor Attacks via Word
Substitution [57.51117978504175]
最近の研究では、ニューラルネットワーク処理(NLP)モデルがバックドア攻撃に弱いことが示されている。
バックドアを注入すると、モデルは通常、良質な例で実行されるが、バックドアがアクティブになったときに攻撃者が特定した予測を生成する。
単語置換の学習可能な組み合わせによって活性化される見えないバックドアを提示する。
論文 参考訳(メタデータ) (2021-06-11T13:03:17Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Backdoor Learning: A Survey [75.59571756777342]
バックドア攻撃はディープニューラルネットワーク(DNN)に隠れたバックドアを埋め込む
バックドア学習は、急速に成長する研究分野である。
本稿では,この領域を包括的に調査する。
論文 参考訳(メタデータ) (2020-07-17T04:09:20Z) - Backdoors in Neural Models of Source Code [13.960152426268769]
ソースコードの深層学習の文脈でバックドアを研究する。
このようなバックドアをインストールするためにデータセットに毒を盛る方法を示す。
また、バックドアの注入の容易さと、それを除去する能力も示しています。
論文 参考訳(メタデータ) (2020-06-11T21:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。