論文の概要: Tabdoor: Backdoor Vulnerabilities in Transformer-based Neural Networks
for Tabular Data
- arxiv url: http://arxiv.org/abs/2311.07550v2
- Date: Mon, 29 Jan 2024 13:23:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 21:23:51.141596
- Title: Tabdoor: Backdoor Vulnerabilities in Transformer-based Neural Networks
for Tabular Data
- Title(参考訳): tabdoor: 表データ用トランスフォーマーベースのニューラルネットワークのバックドア脆弱性
- Authors: Bart Pleiter, Behrad Tajalli, Stefanos Koffas, Gorka Abad, Jing Xu,
Martha Larson, Stjepan Picek
- Abstract要約: 本稿では,Deep Neural Networks (DNN) を用いた表型データに対するバックドア攻撃の包括的解析について述べる。
その結果, バックドア攻撃戦略の導入により, ほぼ完全な攻撃成功率(約100%)が得られた。
我々はこれらの攻撃に対するいくつかの防御策を評価し、スペクトル署名を最も効果的な攻撃とみなした。
- 参考スコア(独自算出の注目度): 15.138687364342893
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Neural Networks (DNNs) have shown great promise in various domains.
Alongside these developments, vulnerabilities associated with DNN training,
such as backdoor attacks, are a significant concern. These attacks involve the
subtle insertion of triggers during model training, allowing for manipulated
predictions.More recently, DNNs for tabular data have gained increasing
attention due to the rise of transformer models.
Our research presents a comprehensive analysis of backdoor attacks on tabular
data using DNNs, particularly focusing on transformers. Given the inherent
complexities of tabular data, we explore the challenges of embedding backdoors.
Through systematic experimentation across benchmark datasets, we uncover that
transformer-based DNNs for tabular data are highly susceptible to backdoor
attacks, even with minimal feature value alterations. We also verify that our
attack can be generalized to other models, like XGBoost and DeepFM. Our results
indicate nearly perfect attack success rates (approximately 100%) by
introducing novel backdoor attack strategies to tabular data. Furthermore, we
evaluate several defenses against these attacks, identifying Spectral
Signatures as the most effective one. Our findings highlight the urgency of
addressing such vulnerabilities and provide insights into potential
countermeasures for securing DNN models against backdoors in tabular data.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、さまざまな領域で大きな可能性を示しています。
これらの開発に加えて、バックドアアタックなどのDNNトレーニングに関連する脆弱性も重大な懸念事項である。
これらの攻撃は、モデルトレーニング中にトリガーを微妙に挿入し、操作された予測を可能にすることを含み、最近ではトランスフォーマーモデルの増加により、表データ用のdnnが注目を集めている。
本研究は,DNNを用いた表型データに対するバックドア攻撃の包括的解析である。
表データの本質的な複雑さを考えると、バックドアを埋め込むという課題を探求する。
ベンチマークデータセット間の系統的な実験を通じて、表データ用のトランスフォーマーベースのdnnが、最小限の機能値の変更でもバックドア攻撃に非常に影響を受けやすいことを明らかにする。
また、我々の攻撃がXGBoostやDeepFMといった他のモデルに一般化可能であることも確認しています。
結果は,表データに新たなバックドア攻撃戦略を導入することで,ほぼ完全な攻撃成功率(約100%)を示している。
さらに,これらの攻撃に対する防御を複数評価し,スペクトルシグネチャを最も有効なシグネチャと同定した。
本研究は,これらの脆弱性に対処する上での緊急性を強調し,表形式でのバックドアに対するDNNモデルのセキュリティ対策に関する知見を提供する。
関連論文リスト
- Not So Robust After All: Evaluating the Robustness of Deep Neural
Networks to Unseen Adversarial Attacks [5.024667090792856]
ディープニューラルネットワーク(DNN)は、分類、認識、予測など、さまざまなアプリケーションで注目を集めている。
従来のDNNの基本的属性は、入力データの修正に対する脆弱性である。
本研究の目的は、敵攻撃に対する現代の防御機構の有効性と一般化に挑戦することである。
論文 参考訳(メタデータ) (2023-08-12T05:21:34Z) - Backdoor Attack with Sparse and Invisible Trigger [60.84183404621145]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Backdoor Defense via Adaptively Splitting Poisoned Dataset [57.70673801469096]
バックドアの防御は、ディープニューラルネットワーク(DNN)がバックドアを攻撃され、悪意ある変更を受けていることの脅威を軽減するために研究されている。
トレーニング時間防衛の核心は, 有毒な試料を選別し, 適切な処理を行うことである。
本フレームワークでは,適応的分割型データセットベースディフェンス(ASD)を提案する。
論文 参考訳(メタデータ) (2023-03-23T02:16:38Z) - Backdoor Defense via Deconfounded Representation Learning [17.28760299048368]
我々は、信頼性の高い分類のための非定型表現を学ぶために、因果性に着想を得たバックドアディフェンス(CBD)を提案する。
CBDは、良性サンプルの予測において高い精度を維持しながら、バックドアの脅威を減らすのに有効である。
論文 参考訳(メタデータ) (2023-03-13T02:25:59Z) - Sneaky Spikes: Uncovering Stealthy Backdoor Attacks in Spiking Neural
Networks with Neuromorphic Data [15.084703823643311]
スパイキングニューラルネットワーク(SNN)は、エネルギー効率の向上と生物学的に有効なデータ処理機能を提供する。
本稿では,ニューロモルフィックデータセットと多様なトリガーを用いたSNNのバックドア攻撃について検討する。
我々は,攻撃成功率を100%まで達成しつつ,クリーンな精度に無視できる影響を保ちながら,様々な攻撃戦略を提示する。
論文 参考訳(メタデータ) (2023-02-13T11:34:17Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - On the Robustness of Bayesian Neural Networks to Adversarial Attacks [11.277163381331137]
敵対的攻撃に対する脆弱性は、安全クリティカルなアプリケーションでディープラーニングを採用する上で、大きなハードルのひとつです。
データ分布の縮退の結果、勾配に基づく攻撃に対する脆弱性が生じることを示す。
BNN後部分布に対する損失の予測勾配は、後部からサンプリングされた各ニューラルネットワークが勾配に基づく攻撃に対して脆弱である場合でも消滅していることを示す。
論文 参考訳(メタデータ) (2022-07-13T12:27:38Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - On Evaluating Neural Network Backdoor Defenses [6.102130712169916]
ディープニューラルネットワーク(DNN)は、精査やセキュリティなど、さまざまな分野で優れたパフォーマンスを示している。
最近の研究では、DNNはバックドア攻撃に弱いことが示されている。
論文 参考訳(メタデータ) (2020-10-23T06:31:17Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。