論文の概要: Certified Robustness via Randomized Smoothing over Multiplicative
Parameters
- arxiv url: http://arxiv.org/abs/2106.14432v1
- Date: Mon, 28 Jun 2021 07:35:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-29 17:59:24.695806
- Title: Certified Robustness via Randomized Smoothing over Multiplicative
Parameters
- Title(参考訳): 乗算パラメータ上のランダム化平滑化による認証ロバスト性
- Authors: Nikita Muravev, Aleksandr Petiushko
- Abstract要約: 我々はガンマ補正摂動に関して、確実に頑健な分類器を構築する。
我々の知る限りでは、乗法的ガンマ補正変換に対する証明された堅牢性に関する最初の研究である。
- 参考スコア(独自算出の注目度): 78.42152902652215
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel approach of randomized smoothing over multiplicative
parameters. Using this method we construct certifiably robust classifiers with
respect to a gamma-correction perturbation and compare the result with
classifiers obtained via Gaussian smoothing. To the best of our knowledge it is
the first work concerning certified robustness against the multiplicative
gamma-correction transformation.
- Abstract(参考訳): 乗法パラメータを用いたランダムな平滑化手法を提案する。
この方法を用いて,ガンマ補正摂動に関して証明可能なロバストな分類器を構築し,ガウス平滑化によって得られた分類器と比較する。
私たちの知る限りでは、乗法的ガンマ補正変換に対する認定ロバスト性に関する最初の研究です。
関連論文リスト
- Accelerated Smoothing: A Scalable Approach to Randomized Smoothing [4.530339602471495]
本稿では,モンテカルロサンプリングを代理ニューラルネットワークのトレーニングに置き換える新しい手法を提案する。
提案手法はロバスト半径認定プロセスを大幅に加速し,600ドル近い改善が得られた。
論文 参考訳(メタデータ) (2024-02-12T09:07:54Z) - The Lipschitz-Variance-Margin Tradeoff for Enhanced Randomized Smoothing [85.85160896547698]
ディープニューラルネットワークの現実的な応用は、ノイズの多い入力や敵攻撃に直面した場合、その不安定な予測によって妨げられる。
入力にノイズ注入を頼りに、認証された半径を持つ効率的な分類器を設計する方法を示す。
新たな認証手法により、ランダムな平滑化による事前学習モデルの使用が可能となり、ゼロショット方式で現在の認証半径を効果的に改善できる。
論文 参考訳(メタデータ) (2023-09-28T22:41:47Z) - Sharp Calibrated Gaussian Processes [58.94710279601622]
キャリブレーションされたモデルを設計するための最先端のアプローチは、ガウス過程の後方分散を膨らませることに依存している。
本稿では,バニラガウス過程の後方分散にインスパイアされた計算を用いて,予測量子化を生成するキャリブレーション手法を提案する。
我々のアプローチは合理的な仮定の下で校正されたモデルが得られることを示す。
論文 参考訳(メタデータ) (2023-02-23T12:17:36Z) - SmoothMix: Training Confidence-calibrated Smoothed Classifiers for
Certified Robustness [61.212486108346695]
自己混合によるスムーズな分類器のロバスト性を制御するためのトレーニングスキームSmoothMixを提案する。
提案手法は, 厳密性に制限された原因として, 信頼性の低い, オフクラスに近いサンプルを効果的に同定する。
提案手法はスムーズな分類器の検証値である$ell$-robustnessを大幅に改善できることを示す。
論文 参考訳(メタデータ) (2021-11-17T18:20:59Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - Consistency Regularization for Certified Robustness of Smoothed
Classifiers [89.72878906950208]
最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。