論文の概要: Beyond Robustness: Resilience Verification of Tree-Based Classifiers
- arxiv url: http://arxiv.org/abs/2112.02705v1
- Date: Sun, 5 Dec 2021 23:07:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 18:31:12.340120
- Title: Beyond Robustness: Resilience Verification of Tree-Based Classifiers
- Title(参考訳): ロバスト性を超えて:木に基づく分類器のレジリエンス検証
- Authors: Stefano Calzavara, Lorenzo Cazzaro, Claudio Lucchese, Federico
Marcuzzi, Salvatore Orlando
- Abstract要約: 我々はレジリエンスと呼ばれる新しい尺度を導入し、その検証に焦点をあてる。
従来のロバスト性検証手法とデータ非依存の安定性解析を組み合わせることで、レジリエンスの検証方法について論じる。
以上の結果から, レジリエンス検証は実用上有用であり, 標準木モデルと堅牢木モデルの両方に対して, より信頼性の高いセキュリティ評価を行うことが可能であることが示唆された。
- 参考スコア(独自算出の注目度): 7.574509994822738
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we criticize the robustness measure traditionally employed to
assess the performance of machine learning models deployed in adversarial
settings. To mitigate the limitations of robustness, we introduce a new measure
called resilience and we focus on its verification. In particular, we discuss
how resilience can be verified by combining a traditional robustness
verification technique with a data-independent stability analysis, which
identifies a subset of the feature space where the model does not change its
predictions despite adversarial manipulations. We then introduce a formally
sound data-independent stability analysis for decision trees and decision tree
ensembles, which we experimentally assess on public datasets and we leverage
for resilience verification. Our results show that resilience verification is
useful and feasible in practice, yielding a more reliable security assessment
of both standard and robust decision tree models.
- Abstract(参考訳): 本稿では,従来,機械学習モデルの性能評価に用いられてきたロバスト性指標について批判する。
堅牢性の限界を緩和するために,レジリエンスと呼ばれる新しい尺度を導入し,その検証に焦点をあてる。
特に,従来のロバスト性検証手法とデータ非依存の安定性解析を組み合わせることで,レジリエンスの検証方法について議論する。
次に,決定木と決定木アンサンブルに関する形式的データ独立安定性解析を導入し,公開データセットを実験的に評価し,レジリエンス検証に活用する。
その結果、レジリエンス検証は実用上有用かつ実現可能であり、標準およびロバストな決定木モデルのより信頼性の高いセキュリティ評価が得られた。
関連論文リスト
- Quantifying calibration error in modern neural networks through evidence based theory [0.0]
本稿では、予測エラー(ECE)の評価に主観的論理を組み込むことにより、ニューラルネットワークの信頼性を定量化する新しい枠組みを提案する。
我々は,MNISTおよびCIFAR-10データセットを用いた実験により,信頼性が向上したことを示す。
提案されたフレームワークは、医療や自律システムといったセンシティブな分野における潜在的な応用を含む、AIモデルのより解釈可能でニュアンスな評価を提供する。
論文 参考訳(メタデータ) (2024-10-31T23:54:21Z) - Rigorous Probabilistic Guarantees for Robust Counterfactual Explanations [80.86128012438834]
モデルシフトに対する反ファクトの堅牢性を計算することはNP完全であることを示す。
本稿では,頑健性の厳密な推定を高い保証で実現する新しい確率論的手法を提案する。
論文 参考訳(メタデータ) (2024-07-10T09:13:11Z) - Stability Evaluation via Distributional Perturbation Analysis [28.379994938809133]
分布摂動に基づく安定性評価基準を提案する。
我々の安定性評価基準は,エフェダデータの腐敗とエフェサブ人口シフトの両方に対処できる。
実証実験により,現実のアプリケーションにまたがる安定性評価基準の実用性を検証する。
論文 参考訳(メタデータ) (2024-05-06T06:47:14Z) - Stability-Certified Learning of Control Systems with Quadratic
Nonlinearities [9.599029891108229]
この研究は、主に低次元の力学モデルを構築することを目的とした演算子推論手法に焦点を当てている。
本研究の目的は,本質的な安定性を保証する2次制御力学系の推論を容易にする手法を開発することである。
論文 参考訳(メタデータ) (2024-03-01T16:26:47Z) - From Static Benchmarks to Adaptive Testing: Psychometrics in AI Evaluation [60.14902811624433]
本稿では,静的評価手法から適応テストへのパラダイムシフトについて論じる。
これには、ベンチマークで各テスト項目の特性と価値を推定し、リアルタイムでアイテムを動的に調整することが含まれる。
我々は、AI評価にサイコメトリックを採用する現在のアプローチ、アドバンテージ、そして根底にある理由を分析します。
論文 参考訳(メタデータ) (2023-06-18T09:54:33Z) - From Adversarial Arms Race to Model-centric Evaluation: Motivating a
Unified Automatic Robustness Evaluation Framework [91.94389491920309]
テキストの敵対攻撃は、セマンティック保存されているが、入力に誤解を招く摂動を加えることでモデルの弱点を発見することができる。
既存のロバストネス評価の実践は、包括的評価、非現実的評価プロトコル、無効な対人サンプルの問題を示す可能性がある。
我々は、敵攻撃の利点を活用するために、モデル中心の評価にシフトする統合された自動ロバストネス評価フレームワークを構築した。
論文 参考訳(メタデータ) (2023-05-29T14:55:20Z) - Approaching Neural Network Uncertainty Realism [53.308409014122816]
自動運転車などの安全クリティカルなシステムには、定量化または少なくとも上限の不確実性が不可欠です。
マハラノビス距離に基づく統計的テストにより、厳しい品質基準である不確実性リアリズムを評価します。
自動車分野に採用し、プレーンエンコーダデコーダモデルと比較して、不確実性リアリズムを大幅に改善することを示した。
論文 参考訳(メタデータ) (2021-01-08T11:56:12Z) - Fair Training of Decision Tree Classifiers [6.381149074212897]
決定木アンサンブルの個々の公平性を公式に検証する問題を研究する。
本手法では,公平性検証と公正性認識トレーニングはどちらも,分類モデルの安定性の概念に依存している。
論文 参考訳(メタデータ) (2021-01-04T12:04:22Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - RobustBench: a standardized adversarial robustness benchmark [84.50044645539305]
ロバストネスのベンチマークにおける主な課題は、その評価がしばしばエラーを起こし、ロバストネス過大評価につながることである。
我々は,白箱攻撃と黒箱攻撃のアンサンブルであるAutoAttackを用いて,敵対的ロバスト性を評価する。
分散シフト,キャリブレーション,アウト・オブ・ディストリビューション検出,フェアネス,プライバシリーク,スムースネス,転送性に対するロバスト性の影響を解析した。
論文 参考訳(メタデータ) (2020-10-19T17:06:18Z) - Variational Encoder-based Reliable Classification [5.161531917413708]
本稿では,トレーニングデータセットと再建の質を用いて,その信念の正当性を証明できる疫学(EC)を提案する。
提案手法は,意味的に意味のある低次元空間を識別できる変分オートエンコーダに基づく。
その結果, 予測の信頼性が向上し, 対向攻撃を伴う試料の堅牢な同定が可能となった。
論文 参考訳(メタデータ) (2020-02-19T17:05:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。