論文の概要: CaFA: Cost-aware, Feasible Attacks With Database Constraints Against Neural Tabular Classifiers
- arxiv url: http://arxiv.org/abs/2501.10013v1
- Date: Fri, 17 Jan 2025 07:49:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-20 13:56:55.423841
- Title: CaFA: Cost-aware, Feasible Attacks With Database Constraints Against Neural Tabular Classifiers
- Title(参考訳): CaFA: データベース制約によるニューラルネットワーク分類器に対する費用対効果
- Authors: Matan Ben-Tov, Daniel Deutch, Nave Frost, Mahmood Sharif,
- Abstract要約: CaFAはコスト対応可能な攻撃システムである。
問題空間で実現可能な敵の例を生成し、敵の努力を最小限にする。
私たちはCaFAをオープンソースとして公開し、機械学習エンジニアが現実的な攻撃に対してモデルの堅牢性を評価するための汎用システムとして機能することを望んでいます。
- 参考スコア(独自算出の注目度): 15.521210935656928
- License:
- Abstract: This work presents CaFA, a system for Cost-aware Feasible Attacks for assessing the robustness of neural tabular classifiers against adversarial examples realizable in the problem space, while minimizing adversaries' effort. To this end, CaFA leverages TabPGD$-$an algorithm we set forth to generate adversarial perturbations suitable for tabular data$-$ and incorporates integrity constraints automatically mined by state-of-the-art database methods. After producing adversarial examples in the feature space via TabPGD, CaFA projects them on the mined constraints, leading, in turn, to better attack realizability. We tested CaFA with three datasets and two architectures and found, among others, that the constraints we use are of higher quality (measured via soundness and completeness) than ones employed in prior work. Moreover, CaFA achieves higher feasible success rates$-$i.e., it generates adversarial examples that are often misclassified while satisfying constraints$-$than prior attacks while simultaneously perturbing few features with lower magnitudes, thus saving effort and improving inconspicuousness. We open-source CaFA, hoping it will serve as a generic system enabling machine-learning engineers to assess their models' robustness against realizable attacks, thus advancing deployed models' trustworthiness.
- Abstract(参考訳): この研究は、問題空間で実現可能な敵の例に対して、ニューラルネットワークの表型分類器の堅牢性を評価し、敵の努力を最小限に抑えるためのコスト認識可能な攻撃システムであるCaFAを提示する。
この目的のために、CaFAはTabPGD$-$anアルゴリズムを利用して、表データに適した逆摂動を生成する。
TabPGDを通じて機能領域の逆例を生成した後、CaFAはそれらをマイニングされた制約に投射し、その結果、実現可能性によりよい攻撃を行う。
私たちはCaFAを3つのデータセットと2つのアーキテクチャでテストし、特に私たちが使用している制約は、以前の作業で使用したものよりも高品質(音質と完全性によって測定される)であることが分かりました。
さらに、CaFAは高い実行可能性の成功率(=======================================================================================================================================================================================================
当社はCaFAをオープンソースとして公開し、マシンラーニングエンジニアがモデルが実現可能な攻撃に対して堅牢性を評価し、デプロイされたモデルの信頼性を向上させるための汎用システムとして機能することを期待しています。
関連論文リスト
- One-step Noisy Label Mitigation [86.57572253460125]
ノイズラベルのトレーニング過程に対する有害な影響の軽減がますます重要になっている。
モデルに依存しないノイズラベル緩和パラダイムである1ステップアンチノイズ(OSA)を提案する。
我々はOSAの優位性を実証的に実証し、トレーニングの堅牢性の向上、タスク転送性の向上、デプロイメントの容易性、計算コストの削減を強調した。
論文 参考訳(メタデータ) (2024-10-02T18:42:56Z) - Provably Unlearnable Data Examples [27.24152626809928]
原文(投稿日:2012/09/19)へのリンク 未許可のモデルでは、共有データを学習不能にするための努力が続けられている。
本稿では、学習不能データセットのいわゆる$(q, eta)$-Learnabilityを認証するためのメカニズムを提案する。
認証の低い$(q, eta)$-Learnabilityは、データセットに対するより堅牢で効果的な保護を示している。
論文 参考訳(メタデータ) (2024-05-06T09:48:47Z) - Constrained Adaptive Attacks: Realistic Evaluation of Adversarial
Examples and Robust Training of Deep Neural Networks for Tabular Data [19.579837693614326]
本稿では,制約付きディープラーニングモデルに対する最初の効率的な回避攻撃であるCAAを提案する。
CAAを活用して、クレジットスコア、フィッシング、ボットネット攻撃検出という3つの一般的なユースケースにわたる、ディープタブモデルのベンチマークを構築します。
論文 参考訳(メタデータ) (2023-11-08T07:35:28Z) - Assessing Robustness via Score-Based Adversarial Image Generation [7.640804709462919]
我々は,Score-Based Adversarial Generation (ScoreAG)を導入し,$ell_p$-norm制約を超えた逆例を生成する。
ScoreAGはイメージのコアセマンティクスを維持しながら、既存のイメージや新しいイメージをスクラッチから完全に変換することで、現実的な敵の例を生成する。
我々の経験的評価は、ScoreAGが複数のベンチマークで最先端の攻撃と防御のパフォーマンスと一致していることを示している。
論文 参考訳(メタデータ) (2023-10-06T14:37:22Z) - Practical Membership Inference Attacks Against Large-Scale Multi-Modal
Models: A Pilot Study [17.421886085918608]
メンバーシップ推論攻撃(MIA)は、機械学習モデルのトレーニングにデータポイントを使用したかどうかを推測することを目的としている。
これらの攻撃は、潜在的なプライバシー上の脆弱性を特定し、個人データの不正使用を検出するために使用できる。
本稿では,大規模マルチモーダルモデルに対する実用的なMIAの開発に向けて第一歩を踏み出す。
論文 参考訳(メタデータ) (2023-09-29T19:38:40Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Defending Variational Autoencoders from Adversarial Attacks with MCMC [74.36233246536459]
変分オートエンコーダ(VAE)は、様々な領域で使用される深部生成モデルである。
以前の研究が示すように、視覚的にわずかに修正された入力に対する予期せぬ潜在表現と再構成を生成するために、VAEを簡単に騙すことができる。
本稿では, 敵攻撃構築のための目的関数について検討し, モデルのロバスト性を評価する指標を提案し, 解決策を提案する。
論文 参考訳(メタデータ) (2022-03-18T13:25:18Z) - A Unified Framework for Adversarial Attack and Defense in Constrained
Feature Space [13.096022606256973]
本稿では、与えられたドメイン制約を満たす実行可能な逆例を生成するための統一的なフレームワークを提案する。
我々のフレームワークは、制約された敵攻撃の研究の出発点を形成し、研究が活用できる関連するベースラインとデータセットを提供します。
論文 参考訳(メタデータ) (2021-12-02T12:05:27Z) - Adversarial Example Games [51.92698856933169]
Adrial Example Games (AEG) は、敵の例の製作をモデル化するフレームワークである。
AEGは、ある仮説クラスからジェネレータとアバーサを反対に訓練することで、敵の例を設計する新しい方法を提供する。
MNIST と CIFAR-10 データセットに対する AEG の有効性を示す。
論文 参考訳(メタデータ) (2020-07-01T19:47:23Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。