論文の概要: Scalable Whitebox Attacks on Tree-based Models
- arxiv url: http://arxiv.org/abs/2204.00103v1
- Date: Thu, 31 Mar 2022 21:36:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-05 02:38:07.648796
- Title: Scalable Whitebox Attacks on Tree-based Models
- Title(参考訳): 木モデルによるスケーラブルなホワイトボックス攻撃
- Authors: Giuseppe Castiglione, Gavin Ding, Masoud Hashemi, Christopher
Srinivasa, Ga Wu
- Abstract要約: 本稿では,木アンサンブルモデルに対する新しいホワイトボックス対逆ロバスト性試験手法を提案する。
サンプリングとログデリバティブのトリックを活用することで、提案手法は以前管理不能だったタスクのテストまでスケールアップできる。
- 参考スコア(独自算出の注目度): 2.3186641356561646
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Adversarial robustness is one of the essential safety criteria for
guaranteeing the reliability of machine learning models. While various
adversarial robustness testing approaches were introduced in the last decade,
we note that most of them are incompatible with non-differentiable models such
as tree ensembles. Since tree ensembles are widely used in industry, this
reveals a crucial gap between adversarial robustness research and practical
applications. This paper proposes a novel whitebox adversarial robustness
testing approach for tree ensemble models. Concretely, the proposed approach
smooths the tree ensembles through temperature controlled sigmoid functions,
which enables gradient descent-based adversarial attacks. By leveraging
sampling and the log-derivative trick, the proposed approach can scale up to
testing tasks that were previously unmanageable. We compare the approach
against both random perturbations and blackbox approaches on multiple public
datasets (and corresponding models). Our results show that the proposed method
can 1) successfully reveal the adversarial vulnerability of tree ensemble
models without causing computational pressure for testing and 2) flexibly
balance the search performance and time complexity to meet various testing
criteria.
- Abstract(参考訳): 敵対的堅牢性は、機械学習モデルの信頼性を保証する上で不可欠な安全基準の1つである。
過去10年間に様々な対向ロバストネステスト手法が導入されたが、そのほとんどは木組み木のような非微分モデルと互換性がないことに注意する。
樹木のアンサンブルは産業で広く使われているため、敵対的堅牢性研究と実践的応用の間に重要なギャップが明らかになる。
本稿では,ツリーアンサンブルモデルに対する新しいホワイトボックス逆ロバスト性テスト手法を提案する。
具体的には, 温度制御型sgmoid関数により木列を滑らかにし, 勾配降下に基づく逆攻撃を可能にした。
サンプリングとログデリバティブのトリックを活用することで、提案手法は以前管理不能だったタスクのテストまでスケールアップできる。
複数のパブリックデータセット(および対応するモデル)に対するランダム摂動とブラックボックスアプローチの両方に対するアプローチを比較する。
提案手法が有効であることを示す。
1) 木組モデルの逆方向の脆弱性を, 試験に計算圧力を発生させることなく明らかにし,
2) 各種試験基準を満たすために, 探索性能と時間複雑性を柔軟にバランスさせる。
関連論文リスト
- Rigorous Probabilistic Guarantees for Robust Counterfactual Explanations [80.86128012438834]
モデルシフトに対する反ファクトの堅牢性を計算することはNP完全であることを示す。
本稿では,頑健性の厳密な推定を高い保証で実現する新しい確率論的手法を提案する。
論文 参考訳(メタデータ) (2024-07-10T09:13:11Z) - Verifiable Learning for Robust Tree Ensembles [8.207928136395184]
大規模分散アンサンブルと呼ばれる決定ツリーアンサンブルのクラスは、制限された時間で実行されるセキュリティ検証アルゴリズムを認めている。
我々は、ラベル付きデータから大規模決定木を自動学習する新しいトレーニングアルゴリズムを設計することで、このアイデアの利点を示す。
公開データセットの実験結果から,我々のアルゴリズムを用いてトレーニングした大域的なアンサンブルを数秒で検証できることを確認した。
論文 参考訳(メタデータ) (2023-05-05T15:37:23Z) - Subgroup Robustness Grows On Trees: An Empirical Baseline Investigation [13.458414200958797]
本稿は,最先端のツリーベース手法と並行して,公正で堅牢な学習手法を実証的に比較する。
木に基づく手法は, 頑健性および公正性向上法と比較して, 強い部分群ロバスト性を有することを示す。
論文 参考訳(メタデータ) (2022-11-23T04:49:18Z) - On the Robustness of Random Forest Against Untargeted Data Poisoning: An
Ensemble-Based Approach [42.81632484264218]
機械学習モデルでは、トレーニングセット(中毒)の分画の摂動が、モデルの精度を著しく損なう可能性がある。
本研究の目的は、ランダムな森林を標的のない無作為な毒殺攻撃から保護する、新しいハッシュベースのアンサンブルアプローチを実現することである。
論文 参考訳(メタデータ) (2022-09-28T11:41:38Z) - (De-)Randomized Smoothing for Decision Stump Ensembles [5.161531917413708]
ツリーベースモデルは、金融や医療など、多くの高度なアプリケーションドメインで使われている。
本稿では,決定スタンプアンサンブルに対する決定論的スムース化を提案する。
決定論的ロバスト性証明は,数値的特徴と分類的特徴を併せ持つものである。
論文 参考訳(メタデータ) (2022-05-27T11:23:50Z) - Robust Binary Models by Pruning Randomly-initialized Networks [57.03100916030444]
ランダムな二元ネットワークから敵攻撃に対して頑健なモデルを得る方法を提案する。
ランダムな二元ネットワークを切断することにより、ロバストモデルの構造を学習する。
本手法は, 敵攻撃の有無で, 強力な抽選券仮説を立証する。
論文 参考訳(メタデータ) (2022-02-03T00:05:08Z) - Clustering Effect of (Linearized) Adversarial Robust Models [60.25668525218051]
本稿では, 敵の強靭性に対する新たな理解を提案し, ドメイン適応や頑健性向上といったタスクに適用する。
提案したクラスタリング戦略の合理性と優越性を実験的に評価した。
論文 参考訳(メタデータ) (2021-11-25T05:51:03Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - Voting based ensemble improves robustness of defensive models [82.70303474487105]
我々は、より堅牢性を高めるためのアンサンブルを作ることができるかどうか研究する。
最先端の先制防衛モデルを複数組み合わせることで,59.8%の堅牢な精度を達成できる。
論文 参考訳(メタデータ) (2020-11-28T00:08:45Z) - A general framework for defining and optimizing robustness [74.67016173858497]
分類器の様々な種類の堅牢性を定義するための厳密でフレキシブルなフレームワークを提案する。
我々の概念は、分類器の堅牢性は正確性とは無関係な性質と考えるべきであるという仮定に基づいている。
我々は,任意の分類モデルに適用可能な,非常に一般的なロバスト性フレームワークを開発する。
論文 参考訳(メタデータ) (2020-06-19T13:24:20Z) - Feature Partitioning for Robust Tree Ensembles and their Certification
in Adversarial Scenarios [8.300942601020266]
モデルが安全な環境でトレーニングされ、テスト時に攻撃にさらされる、回避攻撃に焦点を当てます。
我々は,与えられたデータセットの特徴に基づく分割に基づいて基本モデルをトレーニングすることにより,堅牢なアンサンブルを構築するモデルに依存しない戦略を提案する。
我々のアルゴリズムは、アンサンブルのほとんどのモデルが攻撃者の影響を受けないことを保証する。
論文 参考訳(メタデータ) (2020-04-07T12:00:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。