論文の概要: Provably Robust Cost-Sensitive Learning via Randomized Smoothing
- arxiv url: http://arxiv.org/abs/2310.08732v1
- Date: Thu, 12 Oct 2023 21:39:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-16 15:33:36.057831
- Title: Provably Robust Cost-Sensitive Learning via Randomized Smoothing
- Title(参考訳): ランダム化平滑化によるロバストなコストセンシティブ学習
- Authors: Yuan Xin, Michael Backes, Xiao Zhang
- Abstract要約: よりスケーラブルなロバストネス認証フレームワークであるランダム化スムーシングが、コスト感受性ロバストネスの証明に活用できるかどうかを検討する。
標準的なランダム化スムーズな認証パイプラインを適応して,コスト行列の厳密な堅牢性を保証する方法を示す。
画像ベンチマークと実世界の医療データセットを用いた実験により,本手法の優位性を実証した。
- 参考スコア(独自算出の注目度): 24.38697013402391
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We focus on learning adversarially robust classifiers under a cost-sensitive
scenario, where the potential harm of different classwise adversarial
transformations is encoded in a binary cost matrix. Existing methods are either
empirical that cannot certify robustness or suffer from inherent scalability
issues. In this work, we study whether randomized smoothing, a more scalable
robustness certification framework, can be leveraged to certify cost-sensitive
robustness. Built upon a notion of cost-sensitive certified radius, we show how
to adapt the standard randomized smoothing certification pipeline to produce
tight robustness guarantees for any cost matrix. In addition, with fine-grained
certified radius optimization schemes specifically designed for different data
subgroups, we propose an algorithm to train smoothed classifiers that are
optimized for cost-sensitive robustness. Extensive experiments on image
benchmarks and a real-world medical dataset demonstrate the superiority of our
method in achieving significantly improved performance of certified
cost-sensitive robustness while having a negligible impact on overall accuracy.
- Abstract(参考訳): 異なるクラス毎の逆変換の潜在的な害をバイナリコストマトリックスにエンコードする,コストに敏感なシナリオの下で,敵意にロバストな分類器を学習することに集中する。
既存の方法は、堅牢性を証明できない、または固有のスケーラビリティの問題に悩まされる経験的な方法である。
本研究では,よりスケーラブルなロバスト性認定フレームワークであるランダム化平滑化を,コストに敏感なロバスト性を保証するために活用できるか検討する。
コスト依存型認証半径の概念に基づいて,任意のコスト行列に対して厳密な堅牢性を保証するために,標準ランダム化スムージング認証パイプラインの適応方法を示す。
さらに,異なるデータサブグループに特化して設計された詳細な半径最適化手法を用いて,コスト感受性に最適化されたスムーズな分類器を訓練するアルゴリズムを提案する。
画像ベンチマークと実世界の医療データセットの大規模な実験により, 精度に悪影響を及ぼすことなく, 信頼性の高い信頼性を向上する上で, 提案手法の優位性を実証した。
関連論文リスト
- Provably Unlearnable Data Examples [27.24152626809928]
原文(投稿日:2012/09/19)へのリンク 未許可のモデルでは、共有データを学習不能にするための努力が続けられている。
本稿では、学習不能データセットのいわゆる$(q, eta)$-Learnabilityを認証するためのメカニズムを提案する。
認証の低い$(q, eta)$-Learnabilityは、データセットに対するより堅牢で効果的な保護を示している。
論文 参考訳(メタデータ) (2024-05-06T09:48:47Z) - Adaptive Hierarchical Certification for Segmentation using Randomized Smoothing [87.48628403354351]
機械学習の認証は、特定の条件下では、敵対的なサンプルが特定の範囲内でモデルを回避できないことを証明している。
セグメンテーションの一般的な認証方法は、平らな粒度のクラスを使い、モデルの不確実性による高い断続率をもたらす。
本稿では,複数レベルの階層内で画素を認証し,不安定なコンポーネントに対して粗いレベルに適応的に認証を緩和する,新しい,より実用的な設定を提案する。
論文 参考訳(メタデータ) (2024-02-13T11:59:43Z) - Towards Certified Probabilistic Robustness with High Accuracy [3.957941698534126]
Adrialの例は、ニューラルネットワーク上に構築された多くのクリティカルシステムに対して、セキュリティ上の脅威となる。
確実に堅牢で正確なニューラルネットワークモデルを構築する方法はまだオープンな問題だ。
本稿では,高い精度と高い確率ロバスト性を実現することを目的とした新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-02T09:39:47Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - SmoothMix: Training Confidence-calibrated Smoothed Classifiers for
Certified Robustness [61.212486108346695]
自己混合によるスムーズな分類器のロバスト性を制御するためのトレーニングスキームSmoothMixを提案する。
提案手法は, 厳密性に制限された原因として, 信頼性の低い, オフクラスに近いサンプルを効果的に同定する。
提案手法はスムーズな分類器の検証値である$ell$-robustnessを大幅に改善できることを示す。
論文 参考訳(メタデータ) (2021-11-17T18:20:59Z) - Probabilistic robust linear quadratic regulators with Gaussian processes [73.0364959221845]
ガウス過程(GP)のような確率モデルは、制御設計に続く使用のためのデータから未知の動的システムを学ぶための強力なツールです。
本稿では、確率的安定性マージンに関して堅牢なコントローラを生成する線形化GPダイナミクスのための新しいコントローラ合成について述べる。
論文 参考訳(メタデータ) (2021-05-17T08:36:18Z) - Certified Distributional Robustness on Smoothed Classifiers [27.006844966157317]
本稿では,ロバスト性証明として,入力分布に対する最悪の逆損失を提案する。
双対性と滑らか性を利用して、証明書のサロゲートとして容易に計算できる上限を与える。
論文 参考訳(メタデータ) (2020-10-21T13:22:25Z) - Consistency Regularization for Certified Robustness of Smoothed
Classifiers [89.72878906950208]
最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:57:43Z) - Deep Learning based Frameworks for Handling Imbalance in DGA, Email, and
URL Data Analysis [2.2901908285413413]
本稿では,コストに敏感なディープラーニングに基づくフレームワークを提案し,フレームワークの性能評価を行う。
コスト非感受性およびコスト非感受性法を用いて様々な実験を行った。
すべての実験において、コストに敏感なディープラーニング手法はコストに敏感なアプローチよりも優れている。
論文 参考訳(メタデータ) (2020-03-31T00:22:25Z) - Regularized Training and Tight Certification for Randomized Smoothed
Classifier with Provable Robustness [15.38718018477333]
我々は新たな正規化リスクを導出し、正規化器はスムーズな手法の精度と堅牢性を適応的に促進することができる。
また、正規化効果を利用して、高い確率で保持されるより厳密なロバスト性の下限を提供する新しい認証アルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-02-17T20:54:34Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。