論文の概要: Provably Robust Cost-Sensitive Learning via Randomized Smoothing
- arxiv url: http://arxiv.org/abs/2310.08732v2
- Date: Thu, 30 May 2024 09:37:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-31 23:42:43.709109
- Title: Provably Robust Cost-Sensitive Learning via Randomized Smoothing
- Title(参考訳): ランダムな平滑化による潜在的にロバストなコスト感学習
- Authors: Yuan Xin, Michael Backes, Xiao Zhang,
- Abstract要約: 我々は、ロバストネス認定のためのスケーラブルなフレームワークであるランダム化スムーシングが、コスト感受性のロバストネスの認定とトレーニングに活用できるかどうかを検討する。
まず、ランダム化スムージングの標準的な認証アルゴリズムを適用して、任意のバイナリコスト行列に対して厳密な堅牢性証明を生成する方法について説明する。
そこで我々は,モデル全体の精度を維持しつつ,信頼性の高いコスト感受性を向上するためのロバストなトレーニング手法を開発した。
- 参考スコア(独自算出の注目度): 21.698527267902158
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the problem of robust learning against adversarial perturbations under cost-sensitive scenarios, where the potential harm of different types of misclassifications is encoded in a cost matrix. Existing approaches are either empirical and cannot certify robustness or suffer from inherent scalability issues. In this work, we investigate whether randomized smoothing, a scalable framework for robustness certification, can be leveraged to certify and train for cost-sensitive robustness. Built upon the notion of cost-sensitive certified radius, we first illustrate how to adapt the standard certification algorithm of randomized smoothing to produce tight robustness certificates for any binary cost matrix, and then develop a robust training method to promote certified cost-sensitive robustness while maintaining the model's overall accuracy. Through extensive experiments on image benchmarks, we demonstrate the superiority of our proposed certification algorithm and training method under various cost-sensitive scenarios. Our implementation is available as open source code at: https://github.com/TrustMLRG/CS-RS.
- Abstract(参考訳): 本研究では,異なる種類の誤分類の潜在的な害をコストマトリックスにエンコードする,コスト感受性シナリオ下での対向的摂動に対する堅牢な学習問題について検討する。
既存のアプローチは経験的であり、堅牢性を証明できないか、固有のスケーラビリティの問題に悩まされる。
本研究では、ロバストネス認定のためのスケーラブルなフレームワークであるランダム化スムーシングが、コスト感受性のロバストネスの認定とトレーニングに活用できるかどうかを検討する。
コスト依存型認定半径の概念に基づいて、まずランダム化平滑化の標準的な認証アルゴリズムを適用して、任意のバイナリコスト行列に対して厳密な堅牢性証明を生成する方法と、モデル全体の精度を維持しながら、認証されたコスト依存型堅牢性を促進するための堅牢なトレーニング手法を開発する方法について説明する。
画像ベンチマークの広範な実験を通じて,様々なコスト依存シナリオ下で提案した認証アルゴリズムとトレーニング手法の優位性を実証する。
私たちの実装は、https://github.com/TrustMLRG/CS-RSでオープンソースとして公開されています。
関連論文リスト
- Provably Unlearnable Data Examples [27.24152626809928]
原文(投稿日:2012/09/19)へのリンク 未許可のモデルでは、共有データを学習不能にするための努力が続けられている。
本稿では、学習不能データセットのいわゆる$(q, eta)$-Learnabilityを認証するためのメカニズムを提案する。
認証の低い$(q, eta)$-Learnabilityは、データセットに対するより堅牢で効果的な保護を示している。
論文 参考訳(メタデータ) (2024-05-06T09:48:47Z) - Adaptive Hierarchical Certification for Segmentation using Randomized Smoothing [87.48628403354351]
機械学習の認証は、特定の条件下では、敵対的なサンプルが特定の範囲内でモデルを回避できないことを証明している。
セグメンテーションの一般的な認証方法は、平らな粒度のクラスを使い、モデルの不確実性による高い断続率をもたらす。
本稿では,複数レベルの階層内で画素を認証し,不安定なコンポーネントに対して粗いレベルに適応的に認証を緩和する,新しい,より実用的な設定を提案する。
論文 参考訳(メタデータ) (2024-02-13T11:59:43Z) - Towards Certified Probabilistic Robustness with High Accuracy [3.957941698534126]
Adrialの例は、ニューラルネットワーク上に構築された多くのクリティカルシステムに対して、セキュリティ上の脅威となる。
確実に堅牢で正確なニューラルネットワークモデルを構築する方法はまだオープンな問題だ。
本稿では,高い精度と高い確率ロバスト性を実現することを目的とした新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-02T09:39:47Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - SmoothMix: Training Confidence-calibrated Smoothed Classifiers for
Certified Robustness [61.212486108346695]
自己混合によるスムーズな分類器のロバスト性を制御するためのトレーニングスキームSmoothMixを提案する。
提案手法は, 厳密性に制限された原因として, 信頼性の低い, オフクラスに近いサンプルを効果的に同定する。
提案手法はスムーズな分類器の検証値である$ell$-robustnessを大幅に改善できることを示す。
論文 参考訳(メタデータ) (2021-11-17T18:20:59Z) - Probabilistic robust linear quadratic regulators with Gaussian processes [73.0364959221845]
ガウス過程(GP)のような確率モデルは、制御設計に続く使用のためのデータから未知の動的システムを学ぶための強力なツールです。
本稿では、確率的安定性マージンに関して堅牢なコントローラを生成する線形化GPダイナミクスのための新しいコントローラ合成について述べる。
論文 参考訳(メタデータ) (2021-05-17T08:36:18Z) - Certified Distributional Robustness on Smoothed Classifiers [27.006844966157317]
本稿では,ロバスト性証明として,入力分布に対する最悪の逆損失を提案する。
双対性と滑らか性を利用して、証明書のサロゲートとして容易に計算できる上限を与える。
論文 参考訳(メタデータ) (2020-10-21T13:22:25Z) - Consistency Regularization for Certified Robustness of Smoothed
Classifiers [89.72878906950208]
最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:57:43Z) - Deep Learning based Frameworks for Handling Imbalance in DGA, Email, and
URL Data Analysis [2.2901908285413413]
本稿では,コストに敏感なディープラーニングに基づくフレームワークを提案し,フレームワークの性能評価を行う。
コスト非感受性およびコスト非感受性法を用いて様々な実験を行った。
すべての実験において、コストに敏感なディープラーニング手法はコストに敏感なアプローチよりも優れている。
論文 参考訳(メタデータ) (2020-03-31T00:22:25Z) - Regularized Training and Tight Certification for Randomized Smoothed
Classifier with Provable Robustness [15.38718018477333]
我々は新たな正規化リスクを導出し、正規化器はスムーズな手法の精度と堅牢性を適応的に促進することができる。
また、正規化効果を利用して、高い確率で保持されるより厳密なロバスト性の下限を提供する新しい認証アルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-02-17T20:54:34Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。