論文の概要: Boundary on the Table: Efficient Black-Box Decision-Based Attacks for Structured Data
- arxiv url: http://arxiv.org/abs/2509.22850v1
- Date: Fri, 26 Sep 2025 19:00:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:18.909296
- Title: Boundary on the Table: Efficient Black-Box Decision-Based Attacks for Structured Data
- Title(参考訳): 表上の境界: 構造化データに対する効率的なブラックボックス決定に基づく攻撃
- Authors: Roie Kazoom, Yuval Ratzabi, Etamar Rothstein, Ofer Hadar,
- Abstract要約: 構造化データの敵対的ロバスト性は、視覚や言語ドメインと比較して未探索のフロンティアのままである。
本手法は、勾配のない方向推定と反復境界探索を組み合わせ、離散的かつ連続的な特徴空間の効率的なナビゲーションを可能にする。
実験により,本手法は多種多様なモデルでテストセットのほぼ全域を損なうことができた。
- 参考スコア(独自算出の注目度): 2.02409171087469
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial robustness in structured data remains an underexplored frontier compared to vision and language domains. In this work, we introduce a novel black-box, decision-based adversarial attack tailored for tabular data. Our approach combines gradient-free direction estimation with an iterative boundary search, enabling efficient navigation of discrete and continuous feature spaces under minimal oracle access. Extensive experiments demonstrate that our method successfully compromises nearly the entire test set across diverse models, ranging from classical machine learning classifiers to large language model (LLM)-based pipelines. Remarkably, the attack achieves success rates consistently above 90%, while requiring only a small number of queries per instance. These results highlight the critical vulnerability of tabular models to adversarial perturbations, underscoring the urgent need for stronger defenses in real-world decision-making systems.
- Abstract(参考訳): 構造化データの敵対的ロバスト性は、視覚や言語ドメインと比較して未探索のフロンティアのままである。
本研究では,表型データに適した新しいブラックボックス,決定に基づく敵攻撃を提案する。
提案手法は、勾配のない方向推定と反復境界探索を組み合わせることで、最小のオラクルアクセス下での離散的かつ連続的な特徴空間の効率的なナビゲーションを可能にする。
大規模な実験では、古典的な機械学習分類器から大規模言語モデル(LLM)ベースのパイプラインまで、テストセットのほとんどをさまざまなモデルに分散させることに成功した。
注目すべきは、この攻撃は成功率を90%以上連続的に達成すると同時に、1インスタンスあたりのクエリ数が少ないことだ。
これらの結果は、現実の意思決定システムにおいて、より強力な防御の必要性を浮き彫りにした、敵対的摂動に対する表在モデルの致命的な脆弱性を浮き彫りにした。
関連論文リスト
- DATABench: Evaluating Dataset Auditing in Deep Learning from an Adversarial Perspective [70.77570343385928]
内的特徴(IF)と外的特徴(EF)(監査のための技術導入)に依存した既存手法の分類を新たに導入する。
回避攻撃(evasion attack)は、データセットの使用を隠蔽するために設計されたもので、偽造攻撃(forgery attack)は、未使用のデータセットを誤って含んでいることを意図している。
さらに,既存手法の理解と攻撃目標に基づいて,回避のための分離・除去・検出,偽造の逆例に基づく攻撃方法など,系統的な攻撃戦略を提案する。
私たちのベンチマークであるData dataBenchは、17の回避攻撃、5の偽攻撃、9の攻撃で構成されています。
論文 参考訳(メタデータ) (2025-07-08T03:07:15Z) - No Query, No Access [50.18709429731724]
被害者のテキストのみを使用して動作する textbfVictim Data-based Adrial Attack (VDBA) を導入する。
被害者モデルへのアクセスを防止するため、公開されている事前トレーニングモデルとクラスタリングメソッドを備えたシャドウデータセットを作成します。
EmotionとSST5データセットの実験によると、VDBAは最先端の手法より優れており、ASRの改善は52.08%である。
論文 参考訳(メタデータ) (2025-05-12T06:19:59Z) - Estimating Control Barriers from Offline Data [14.241303913878887]
本稿では、トレーニング前に収集した厳密なラベル付きデータセットを通じて、ニューラルCBFを学習するための新しいフレームワークを提案する。
オフラインデータの量は限られており、動的障害物回避のための最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-02-21T04:55:20Z) - Improving the Efficiency of Self-Supervised Adversarial Training through Latent Clustering-Based Selection [2.7554677967598047]
逆向きの堅牢な学習は、トレーニングの例をはるかに多く求めていると広く認識されている。
近年の研究では、モデルロバスト性を高めるために、外部または合成された未ラベルデータを用いた自己教師付き対人訓練が提案されている。
そこで本稿では,SSATに不可欠なラベルなしデータの小さなサブセットを戦略的に選択し,ロバスト性を向上させる手法を提案する。
論文 参考訳(メタデータ) (2025-01-15T15:47:49Z) - ADBA:Approximation Decision Boundary Approach for Black-Box Adversarial Attacks [6.253823500300899]
ブラックボックス攻撃はステルス性があり、機械学習モデルからハードラベルを使用して敵の例を生成する。
本稿では,近似決定境界(ADB)を用いて摂動方向を効率よく正確に比較する手法を提案する。
我々のADBアプローチ(ADBA)の有効性は、適切なADBを迅速に同定し、全ての摂動方向を確実に区別することにある。
論文 参考訳(メタデータ) (2024-06-07T15:09:25Z) - Balancing Act: Constraining Disparate Impact in Sparse Models [20.058720715290434]
本研究では,プルーニングの異なる影響に直接対処する制約付き最適化手法を提案する。
我々の定式化は、各部分群に対する密度モデルとスパースモデルの間の精度変化を束縛する。
実験により,本手法は大規模モデルや数百の保護されたサブグループに関わる問題に対して確実にスケール可能であることが示された。
論文 参考訳(メタデータ) (2023-10-31T17:37:35Z) - Temporal Action Localization with Enhanced Instant Discriminability [66.76095239972094]
時間的行動検出(TAD)は、すべての行動境界とその対応するカテゴリを、トリミングされていないビデオで検出することを目的としている。
本稿では,既存の手法による動作境界の不正確な予測を解決するために,TriDetという一段階のフレームワークを提案する。
実験結果から,複数のTADデータセット上でのTriDetの堅牢性と最先端性能が示された。
論文 参考訳(メタデータ) (2023-09-11T16:17:50Z) - Query Efficient Cross-Dataset Transferable Black-Box Attack on Action
Recognition [99.29804193431823]
ブラックボックスの敵攻撃は、行動認識システムに現実的な脅威をもたらす。
本稿では,摂動を発生させることにより,これらの欠点に対処する新たな行動認識攻撃を提案する。
提案手法は,最先端のクエリベースおよび転送ベース攻撃と比較して,8%,12%の偽装率を達成する。
論文 参考訳(メタデータ) (2022-11-23T17:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。