論文の概要: Tabdoor: Backdoor Vulnerabilities in Transformer-based Neural Networks
for Tabular Data
- arxiv url: http://arxiv.org/abs/2311.07550v1
- Date: Mon, 13 Nov 2023 18:39:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 12:54:54.053048
- Title: Tabdoor: Backdoor Vulnerabilities in Transformer-based Neural Networks
for Tabular Data
- Title(参考訳): tabdoor: 表データ用トランスフォーマーベースのニューラルネットワークのバックドア脆弱性
- Authors: Bart Pleiter, Behrad Tajalli, Stefanos Koffas, Gorka Abad, Jing Xu,
Martha Larson, Stjepan Picek
- Abstract要約: ディープニューラルネットワーク(DNN)に対する攻撃は、モデルトレーニング中にトリガーを微妙に挿入することで、操作された予測を可能にする。
本研究では,DNNを用いたデータに対するバックドア攻撃の包括的解析を行い,特にトランスフォーマーネットワークに着目した。
その結果, バックドア攻撃戦略の導入により, ほぼ完璧な攻撃成功率(約100%)が得られた。
われわれは,このような脆弱性に対処し,潜在的な対策に関する洞察を提供する緊急性を強調した。
- 参考スコア(独自算出の注目度): 15.138687364342893
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNNs) have shown great promise in various domains.
Alongside these developments, vulnerabilities associated with DNN training,
such as backdoor attacks, are a significant concern. These attacks involve the
subtle insertion of triggers during model training, allowing for manipulated
predictions. More recently, DNNs for tabular data have gained increasing
attention due to the rise of transformer models.
Our research presents a comprehensive analysis of backdoor attacks on tabular
data using DNNs, particularly focusing on transformer-based networks. Given the
inherent complexities of tabular data, we explore the challenges of embedding
backdoors. Through systematic experimentation across benchmark datasets, we
uncover that transformer-based DNNs for tabular data are highly susceptible to
backdoor attacks, even with minimal feature value alterations. Our results
indicate nearly perfect attack success rates (approx100%) by introducing novel
backdoor attack strategies to tabular data. Furthermore, we evaluate several
defenses against these attacks, identifying Spectral Signatures as the most
effective one. Our findings highlight the urgency to address such
vulnerabilities and provide insights into potential countermeasures for
securing DNN models against backdoors on tabular data.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、さまざまな領域において大きな可能性を秘めている。
これらの開発に加えて、バックドアアタックなどのDNNトレーニングに関連する脆弱性も重大な懸念事項である。
これらの攻撃は、モデルトレーニング中にトリガーを微妙に挿入することで、操作された予測を可能にする。
近年,変圧器モデルの台頭により,表型データ用DNNが注目されている。
本研究では,DNNを用いた表層データに対するバックドア攻撃の包括的解析を行い,特にトランスフォーマーネットワークに着目した。
表データの本質的な複雑さを考えると、バックドアを埋め込むという課題を探求する。
ベンチマークデータセット間の系統的な実験を通じて、表データ用のトランスフォーマーベースのdnnが、最小限の機能値の変更でもバックドア攻撃に非常に影響を受けやすいことを明らかにする。
結果は,表データに新たなバックドア攻撃戦略を導入することで,ほぼ完全な攻撃成功率(約100%)を示している。
さらに,これらの攻撃に対する防御を複数評価し,スペクトルシグネチャを最も有効なシグネチャと同定した。
本研究は,このような脆弱性に対処する上での緊急性を強調し,表データのバックドアに対するDNNモデルのセキュリティ対策に関する知見を提供する。
関連論文リスト
- Flashy Backdoor: Real-world Environment Backdoor Attack on SNNs with DVS Cameras [11.658496836117907]
スパイキングニューラルネットワーク(SNN)を用いた実環境におけるバックドアアタックの初評価について述べる。
本稿では,SNNに新たな3つのバックドア攻撃手法,すなわちFramed,Strobing,F Flashy Backdoorを提案する。
本研究は, バックドア攻撃に対するSNNベースのシステムのセキュリティと, 現実のシナリオにおける安全性を確保するために, さらなる研究が必要であることを示すものである。
論文 参考訳(メタデータ) (2024-11-05T11:44:54Z) - Long-Tailed Backdoor Attack Using Dynamic Data Augmentation Operations [50.1394620328318]
既存のバックドア攻撃は主にバランスの取れたデータセットに焦点を当てている。
動的データ拡張操作(D$2$AO)という効果的なバックドア攻撃を提案する。
本手法は,クリーンな精度を維持しつつ,最先端の攻撃性能を実現することができる。
論文 参考訳(メタデータ) (2024-10-16T18:44:22Z) - Robustness-Inspired Defense Against Backdoor Attacks on Graph Neural Networks [30.82433380830665]
グラフニューラルネットワーク(GNN)は,ノード分類やグラフ分類といったタスクにおいて,有望な結果を達成している。
最近の研究で、GNNはバックドア攻撃に弱いことが判明し、実際の採用に重大な脅威をもたらしている。
本研究では,裏口検出にランダムなエッジドロップを用いることにより,汚染ノードとクリーンノードを効率的に識別できることを理論的に示す。
論文 参考訳(メタデータ) (2024-06-14T08:46:26Z) - Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Backdoor Defense via Deconfounded Representation Learning [17.28760299048368]
我々は、信頼性の高い分類のための非定型表現を学ぶために、因果性に着想を得たバックドアディフェンス(CBD)を提案する。
CBDは、良性サンプルの予測において高い精度を維持しながら、バックドアの脅威を減らすのに有効である。
論文 参考訳(メタデータ) (2023-03-13T02:25:59Z) - Sneaky Spikes: Uncovering Stealthy Backdoor Attacks in Spiking Neural
Networks with Neuromorphic Data [15.084703823643311]
スパイキングニューラルネットワーク(SNN)は、エネルギー効率の向上と生物学的に有効なデータ処理機能を提供する。
本稿では,ニューロモルフィックデータセットと多様なトリガーを用いたSNNのバックドア攻撃について検討する。
我々は,攻撃成功率を100%まで達成しつつ,クリーンな精度に無視できる影響を保ちながら,様々な攻撃戦略を提示する。
論文 参考訳(メタデータ) (2023-02-13T11:34:17Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。