論文の概要: Beyond Robustness: Resilience Verification of Tree-Based Classifiers
- arxiv url: http://arxiv.org/abs/2112.02705v1
- Date: Sun, 5 Dec 2021 23:07:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 18:31:12.340120
- Title: Beyond Robustness: Resilience Verification of Tree-Based Classifiers
- Title(参考訳): ロバスト性を超えて:木に基づく分類器のレジリエンス検証
- Authors: Stefano Calzavara, Lorenzo Cazzaro, Claudio Lucchese, Federico
Marcuzzi, Salvatore Orlando
- Abstract要約: 我々はレジリエンスと呼ばれる新しい尺度を導入し、その検証に焦点をあてる。
従来のロバスト性検証手法とデータ非依存の安定性解析を組み合わせることで、レジリエンスの検証方法について論じる。
以上の結果から, レジリエンス検証は実用上有用であり, 標準木モデルと堅牢木モデルの両方に対して, より信頼性の高いセキュリティ評価を行うことが可能であることが示唆された。
- 参考スコア(独自算出の注目度): 7.574509994822738
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we criticize the robustness measure traditionally employed to
assess the performance of machine learning models deployed in adversarial
settings. To mitigate the limitations of robustness, we introduce a new measure
called resilience and we focus on its verification. In particular, we discuss
how resilience can be verified by combining a traditional robustness
verification technique with a data-independent stability analysis, which
identifies a subset of the feature space where the model does not change its
predictions despite adversarial manipulations. We then introduce a formally
sound data-independent stability analysis for decision trees and decision tree
ensembles, which we experimentally assess on public datasets and we leverage
for resilience verification. Our results show that resilience verification is
useful and feasible in practice, yielding a more reliable security assessment
of both standard and robust decision tree models.
- Abstract(参考訳): 本稿では,従来,機械学習モデルの性能評価に用いられてきたロバスト性指標について批判する。
堅牢性の限界を緩和するために,レジリエンスと呼ばれる新しい尺度を導入し,その検証に焦点をあてる。
特に,従来のロバスト性検証手法とデータ非依存の安定性解析を組み合わせることで,レジリエンスの検証方法について議論する。
次に,決定木と決定木アンサンブルに関する形式的データ独立安定性解析を導入し,公開データセットを実験的に評価し,レジリエンス検証に活用する。
その結果、レジリエンス検証は実用上有用かつ実現可能であり、標準およびロバストな決定木モデルのより信頼性の高いセキュリティ評価が得られた。
関連論文リスト
- Stability-Certified Learning of Control Systems with Quadratic
Nonlinearities [9.599029891108229]
この研究は、主に低次元の力学モデルを構築することを目的とした演算子推論手法に焦点を当てている。
本研究の目的は,本質的な安定性を保証する2次制御力学系の推論を容易にする手法を開発することである。
論文 参考訳(メタデータ) (2024-03-01T16:26:47Z) - On the Onset of Robust Overfitting in Adversarial Training [66.27055915739331]
Adversarial Training (AT)は、堅牢なニューラルネットワークを構築するために広く使われているアルゴリズムである。
ATは、堅牢なオーバーフィッティングの問題に悩まされているが、その基本的なメカニズムはまだ不明だ。
論文 参考訳(メタデータ) (2023-10-01T07:57:03Z) - SureFED: Robust Federated Learning via Uncertainty-Aware Inward and
Outward Inspection [29.491675102478798]
本稿では,堅牢なフェデレーション学習のための新しいフレームワークであるSureFEDを紹介する。
SureFEDは、良識のあるクライアントのローカル情報を使って信頼を確立する。
理論的には、データとモデル中毒攻撃に対するアルゴリズムの堅牢性を証明する。
論文 参考訳(メタデータ) (2023-08-04T23:51:05Z) - From Adversarial Arms Race to Model-centric Evaluation: Motivating a
Unified Automatic Robustness Evaluation Framework [91.94389491920309]
テキストの敵対攻撃は、セマンティック保存されているが、入力に誤解を招く摂動を加えることでモデルの弱点を発見することができる。
既存のロバストネス評価の実践は、包括的評価、非現実的評価プロトコル、無効な対人サンプルの問題を示す可能性がある。
我々は、敵攻撃の利点を活用するために、モデル中心の評価にシフトする統合された自動ロバストネス評価フレームワークを構築した。
論文 参考訳(メタデータ) (2023-05-29T14:55:20Z) - Adversarially Robust Stability Certificates can be Sample-Efficient [14.658040519472646]
未知の非線形力学系に対する逆向きに頑健な安定性証明について考察する。
敵安定証明書を学習する統計的コストは,定型的安定性証明書を学習するのと同程度であることを示す。
論文 参考訳(メタデータ) (2021-12-20T17:23:31Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z) - Approaching Neural Network Uncertainty Realism [53.308409014122816]
自動運転車などの安全クリティカルなシステムには、定量化または少なくとも上限の不確実性が不可欠です。
マハラノビス距離に基づく統計的テストにより、厳しい品質基準である不確実性リアリズムを評価します。
自動車分野に採用し、プレーンエンコーダデコーダモデルと比較して、不確実性リアリズムを大幅に改善することを示した。
論文 参考訳(メタデータ) (2021-01-08T11:56:12Z) - Fair Training of Decision Tree Classifiers [6.381149074212897]
決定木アンサンブルの個々の公平性を公式に検証する問題を研究する。
本手法では,公平性検証と公正性認識トレーニングはどちらも,分類モデルの安定性の概念に依存している。
論文 参考訳(メタデータ) (2021-01-04T12:04:22Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - RobustBench: a standardized adversarial robustness benchmark [84.50044645539305]
ロバストネスのベンチマークにおける主な課題は、その評価がしばしばエラーを起こし、ロバストネス過大評価につながることである。
我々は,白箱攻撃と黒箱攻撃のアンサンブルであるAutoAttackを用いて,敵対的ロバスト性を評価する。
分散シフト,キャリブレーション,アウト・オブ・ディストリビューション検出,フェアネス,プライバシリーク,スムースネス,転送性に対するロバスト性の影響を解析した。
論文 参考訳(メタデータ) (2020-10-19T17:06:18Z) - Variational Encoder-based Reliable Classification [5.161531917413708]
本稿では,トレーニングデータセットと再建の質を用いて,その信念の正当性を証明できる疫学(EC)を提案する。
提案手法は,意味的に意味のある低次元空間を識別できる変分オートエンコーダに基づく。
その結果, 予測の信頼性が向上し, 対向攻撃を伴う試料の堅牢な同定が可能となった。
論文 参考訳(メタデータ) (2020-02-19T17:05:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。