論文の概要: Tabdoor: Backdoor Vulnerabilities in Transformer-based Neural Networks
for Tabular Data
- arxiv url: http://arxiv.org/abs/2311.07550v1
- Date: Mon, 13 Nov 2023 18:39:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 12:54:54.053048
- Title: Tabdoor: Backdoor Vulnerabilities in Transformer-based Neural Networks
for Tabular Data
- Title(参考訳): tabdoor: 表データ用トランスフォーマーベースのニューラルネットワークのバックドア脆弱性
- Authors: Bart Pleiter, Behrad Tajalli, Stefanos Koffas, Gorka Abad, Jing Xu,
Martha Larson, Stjepan Picek
- Abstract要約: ディープニューラルネットワーク(DNN)に対する攻撃は、モデルトレーニング中にトリガーを微妙に挿入することで、操作された予測を可能にする。
本研究では,DNNを用いたデータに対するバックドア攻撃の包括的解析を行い,特にトランスフォーマーネットワークに着目した。
その結果, バックドア攻撃戦略の導入により, ほぼ完璧な攻撃成功率(約100%)が得られた。
われわれは,このような脆弱性に対処し,潜在的な対策に関する洞察を提供する緊急性を強調した。
- 参考スコア(独自算出の注目度): 15.138687364342893
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNNs) have shown great promise in various domains.
Alongside these developments, vulnerabilities associated with DNN training,
such as backdoor attacks, are a significant concern. These attacks involve the
subtle insertion of triggers during model training, allowing for manipulated
predictions. More recently, DNNs for tabular data have gained increasing
attention due to the rise of transformer models.
Our research presents a comprehensive analysis of backdoor attacks on tabular
data using DNNs, particularly focusing on transformer-based networks. Given the
inherent complexities of tabular data, we explore the challenges of embedding
backdoors. Through systematic experimentation across benchmark datasets, we
uncover that transformer-based DNNs for tabular data are highly susceptible to
backdoor attacks, even with minimal feature value alterations. Our results
indicate nearly perfect attack success rates (approx100%) by introducing novel
backdoor attack strategies to tabular data. Furthermore, we evaluate several
defenses against these attacks, identifying Spectral Signatures as the most
effective one. Our findings highlight the urgency to address such
vulnerabilities and provide insights into potential countermeasures for
securing DNN models against backdoors on tabular data.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、さまざまな領域において大きな可能性を秘めている。
これらの開発に加えて、バックドアアタックなどのDNNトレーニングに関連する脆弱性も重大な懸念事項である。
これらの攻撃は、モデルトレーニング中にトリガーを微妙に挿入することで、操作された予測を可能にする。
近年,変圧器モデルの台頭により,表型データ用DNNが注目されている。
本研究では,DNNを用いた表層データに対するバックドア攻撃の包括的解析を行い,特にトランスフォーマーネットワークに着目した。
表データの本質的な複雑さを考えると、バックドアを埋め込むという課題を探求する。
ベンチマークデータセット間の系統的な実験を通じて、表データ用のトランスフォーマーベースのdnnが、最小限の機能値の変更でもバックドア攻撃に非常に影響を受けやすいことを明らかにする。
結果は,表データに新たなバックドア攻撃戦略を導入することで,ほぼ完全な攻撃成功率(約100%)を示している。
さらに,これらの攻撃に対する防御を複数評価し,スペクトルシグネチャを最も有効なシグネチャと同定した。
本研究は,このような脆弱性に対処する上での緊急性を強調し,表データのバックドアに対するDNNモデルのセキュリティ対策に関する知見を提供する。
関連論文リスト
- Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - Securing GNNs: Explanation-Based Identification of Backdoored Training Graphs [13.93535590008316]
グラフニューラルネットワーク(GNN)は、多くのドメインで人気を集めているが、パフォーマンスと倫理的応用を損なう可能性のあるバックドア攻撃に弱い。
本稿では,GNNにおけるバックドア攻撃を検出する新しい手法を提案する。
提案手法は, バックドア攻撃に対するGNNの安全性向上に寄与し, 高い検出性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-03-26T22:41:41Z) - Backdoor Attack with Sparse and Invisible Trigger [60.84183404621145]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Backdoor Defense via Deconfounded Representation Learning [17.28760299048368]
我々は、信頼性の高い分類のための非定型表現を学ぶために、因果性に着想を得たバックドアディフェンス(CBD)を提案する。
CBDは、良性サンプルの予測において高い精度を維持しながら、バックドアの脅威を減らすのに有効である。
論文 参考訳(メタデータ) (2023-03-13T02:25:59Z) - Sneaky Spikes: Uncovering Stealthy Backdoor Attacks in Spiking Neural
Networks with Neuromorphic Data [15.084703823643311]
スパイキングニューラルネットワーク(SNN)は、エネルギー効率の向上と生物学的に有効なデータ処理機能を提供する。
本稿では,ニューロモルフィックデータセットと多様なトリガーを用いたSNNのバックドア攻撃について検討する。
我々は,攻撃成功率を100%まで達成しつつ,クリーンな精度に無視できる影響を保ちながら,様々な攻撃戦略を提示する。
論文 参考訳(メタデータ) (2023-02-13T11:34:17Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Invisible Backdoor Attacks Using Data Poisoning in the Frequency Domain [8.64369418938889]
周波数領域に基づく一般化されたバックドア攻撃手法を提案する。
トレーニングプロセスのミスラベルやアクセスをすることなく、バックドアのインプラントを実装できる。
我々は,3つのデータセットに対して,ラベルなし,クリーンラベルのケースにおけるアプローチを評価した。
論文 参考訳(メタデータ) (2022-07-09T07:05:53Z) - PiDAn: A Coherence Optimization Approach for Backdoor Attack Detection
and Mitigation in Deep Neural Networks [22.900501880865658]
バックドア攻撃はディープニューラルネットワーク(DNN)に新たな脅威をもたらす
汚染されたデータを浄化するコヒーレンス最適化に基づくアルゴリズムであるPiDAnを提案する。
当社のPiDAnアルゴリズムは90%以上の感染クラスを検出でき、95%の有毒サンプルを識別できる。
論文 参考訳(メタデータ) (2022-03-17T12:37:21Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。