論文の概要: CatBack: Universal Backdoor Attacks on Tabular Data via Categorical Encoding
- arxiv url: http://arxiv.org/abs/2511.06072v1
- Date: Sat, 08 Nov 2025 17:02:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.739933
- Title: CatBack: Universal Backdoor Attacks on Tabular Data via Categorical Encoding
- Title(参考訳): CatBack: カテゴリエンコーディングによるタブラルデータに対するユニバーサルバックドア攻撃
- Authors: Behrad Tajalli, Stefanos Koffas, Stjepan Picek,
- Abstract要約: 機械学習におけるバックドア攻撃は、モデルを密かに妥協する可能性に対して大きな注目を集めているが、ほとんどの研究は画像のような同種データに焦点を当てている。
本稿では,カテゴリ値から浮動小数点表現に変換する新しい手法を提案する。
その結果、ホワイトボックスとブラックボックスの両方で100%の攻撃成功率を示しました。
- 参考スコア(独自算出の注目度): 19.14318424890526
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Backdoor attacks in machine learning have drawn significant attention for their potential to compromise models stealthily, yet most research has focused on homogeneous data such as images. In this work, we propose a novel backdoor attack on tabular data, which is particularly challenging due to the presence of both numerical and categorical features. Our key idea is a novel technique to convert categorical values into floating-point representations. This approach preserves enough information to maintain clean-model accuracy compared to traditional methods like one-hot or ordinal encoding. By doing this, we create a gradient-based universal perturbation that applies to all features, including categorical ones. We evaluate our method on five datasets and four popular models. Our results show up to a 100% attack success rate in both white-box and black-box settings (including real-world applications like Vertex AI), revealing a severe vulnerability for tabular data. Our method is shown to surpass the previous works like Tabdoor in terms of performance, while remaining stealthy against state-of-the-art defense mechanisms. We evaluate our attack against Spectral Signatures, Neural Cleanse, Beatrix, and Fine-Pruning, all of which fail to defend successfully against it. We also verify that our attack successfully bypasses popular outlier detection mechanisms.
- Abstract(参考訳): 機械学習におけるバックドア攻撃は、モデルを密かに妥協する可能性に対して大きな注目を集めているが、ほとんどの研究は画像のような同種データに焦点を当てている。
本研究では,表型データに対する新たなバックドア攻撃を提案するが,これは数値的特徴と分類的特徴の両方が存在するため,特に困難である。
私たちのキーとなるアイデアは、カテゴリ値を浮動小数点表現に変換する新しいテクニックです。
このアプローチは、ワンホットや順序エンコーディングのような従来の方法と比較して、クリーンモデル精度を維持するのに十分な情報を保持する。
これを行うことで、分類的を含むすべての特徴に適用できる勾配に基づく普遍摂動を創出する。
提案手法を5つのデータセットと4つの人気モデルで評価する。
我々の結果は、ホワイトボックスとブラックボックスの設定(Vertex AIのような現実世界のアプリケーションを含む)の両方で100%の攻撃成功率を示し、表データの深刻な脆弱性を明らかにします。
本手法は,最先端の防御機構に対してステルスティを保ちながら,パフォーマンスの観点からはTabdoorのような過去の作品を上回ることが示されている。
我々は、スペクトル署名、ニューラルクリーンス、ベアトリクス、ファインプルーニングに対する攻撃を評価し、これら全てはそれに対する防御に失敗した。
また,攻撃が一般的な異常検出機構を回避できたことも確認した。
関連論文リスト
- The Surprising Effectiveness of Membership Inference with Simple N-Gram Coverage [71.8564105095189]
対象モデルからのテキスト出力のみに依存する会員推論攻撃であるN-Gram Coverage Attackを導入する。
我々はまず、N-Gram Coverage Attackが他のブラックボックスメソッドより優れている、様々な既存のベンチマークを実証する。
GPT-4oのような最近のモデルでは、メンバーシップ推論に対するロバスト性が向上していることがわかった。
論文 参考訳(メタデータ) (2025-08-13T08:35:16Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - ChatGPT as an Attack Tool: Stealthy Textual Backdoor Attack via Blackbox
Generative Model Trigger [11.622811907571132]
テキストバックドア攻撃は既存のシステムに現実的な脅威をもたらす。
GPT-4のような最先端の生成モデルでは、リライトを異常なレベルに押し上げるため、そのような攻撃はより検出しにくくなっている。
我々は、バックドア攻撃ツールとしてのブラックボックス生成モデルの役割を包括的に調査し、相対防衛戦略の研究の重要性を強調した。
論文 参考訳(メタデータ) (2023-04-27T19:26:25Z) - SATBA: An Invisible Backdoor Attack Based On Spatial Attention [7.405457329942725]
バックドア攻撃には、隠れたトリガーパターンを含むデータセットに対するDeep Neural Network(DNN)のトレーニングが含まれる。
既存のバックドア攻撃のほとんどは、2つの重大な欠点に悩まされている。
空間的注意とU-netモデルを用いてこれらの制限を克服するSATBAという新しいバックドアアタックを提案する。
論文 参考訳(メタデータ) (2023-02-25T10:57:41Z) - The "Beatrix'' Resurrections: Robust Backdoor Detection via Gram
Matrices [24.173099352455083]
Deep Neural Networks(DNN)は、トレーニング中のバックドア攻撃の影響を受けやすい。
本稿では,Beatrix(Gram行列によるバックドア検出)という新しい手法を提案する。
提案手法は動的バックドア検出においてF1スコア91.1%を達成し,36.9%に到達した。
論文 参考訳(メタデータ) (2022-09-23T16:47:19Z) - Invisible Backdoor Attacks Using Data Poisoning in the Frequency Domain [8.64369418938889]
周波数領域に基づく一般化されたバックドア攻撃手法を提案する。
トレーニングプロセスのミスラベルやアクセスをすることなく、バックドアのインプラントを実装できる。
我々は,3つのデータセットに対して,ラベルなし,クリーンラベルのケースにおけるアプローチを評価した。
論文 参考訳(メタデータ) (2022-07-09T07:05:53Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。