論文の概要: GSmooth: Certified Robustness against Semantic Transformations via
Generalized Randomized Smoothing
- arxiv url: http://arxiv.org/abs/2206.04310v1
- Date: Thu, 9 Jun 2022 07:12:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-10 12:41:49.875432
- Title: GSmooth: Certified Robustness against Semantic Transformations via
Generalized Randomized Smoothing
- Title(参考訳): GSmooth:一般化ランダム化平滑化による意味変換に対するロバスト性証明
- Authors: Zhongkai Hao, Chengyang Ying, Yinpeng Dong, Hang Su, Jun Zhu, Jian
Song
- Abstract要約: 一般的な意味変換に対する堅牢性を証明するための統一的な理論的枠組みを提案する。
GSmoothフレームワークでは,画像と画像の代理ネットワークを用いて複雑な変換を近似するスケーラブルなアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 40.38555458216436
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Certified defenses such as randomized smoothing have shown promise towards
building reliable machine learning systems against $\ell_p$-norm bounded
attacks. However, existing methods are insufficient or unable to provably
defend against semantic transformations, especially those without closed-form
expressions (such as defocus blur and pixelate), which are more common in
practice and often unrestricted. To fill up this gap, we propose generalized
randomized smoothing (GSmooth), a unified theoretical framework for certifying
robustness against general semantic transformations via a novel dimension
augmentation strategy. Under the GSmooth framework, we present a scalable
algorithm that uses a surrogate image-to-image network to approximate the
complex transformation. The surrogate model provides a powerful tool for
studying the properties of semantic transformations and certifying robustness.
Experimental results on several datasets demonstrate the effectiveness of our
approach for robustness certification against multiple kinds of semantic
transformations and corruptions, which is not achievable by the alternative
baselines.
- Abstract(参考訳): ランダム化スムーシングのような認証された防御は、$\ell_p$-norm境界攻撃に対する信頼性の高い機械学習システムの構築を約束している。
しかし、既存の手法では意味的変換(特にデフォーカスブラーやピクセルレートのような、閉じた表現を持たないもの)に対して十分な防御ができないか、あるいは不可能である。
このギャップを埋めるために,新しい次元拡張戦略による一般意味変換に対するロバスト性を検証するための統一理論フレームワークである一般化ランダム化平滑化(gsmooth)を提案する。
GSmoothフレームワークでは,画像と画像の代理ネットワークを用いて複雑な変換を近似するスケーラブルなアルゴリズムを提案する。
代理モデルは意味変換の性質を研究し、堅牢性を証明するための強力なツールを提供する。
いくつかのデータセットに対する実験結果から,複数の意味変換や汚職に対するロバストネス認証の有効性が示されたが,これは代替のベースラインでは達成できない。
関連論文リスト
- Hierarchical Randomized Smoothing [94.59984692215426]
ランダムな平滑化は、モデルが入力の小さな変更に対して確実に堅牢にするための強力なフレームワークです。
階層的ランダム化平滑化(hierarchical randomized smoothing): ランダムに選択されたエンティティのサブセットにのみランダムノイズを加えることで、部分的に滑らかなオブジェクトを生成する。
画像およびノード分類における階層的スムージングの重要性を実験的に示す。
論文 参考訳(メタデータ) (2023-10-24T22:24:44Z) - General Lipschitz: Certified Robustness Against Resolvable Semantic Transformations via Transformation-Dependent Randomized Smoothing [5.5855074442298696]
構成可能な可解なセマンティック摂動に対してニューラルネットワークを認証する新しいフレームワークであるEmph General Lipschitz (GL)を提案する。
提案手法は,ImageNetデータセットにおける最先端のアプローチと同等に機能する。
論文 参考訳(メタデータ) (2023-08-17T14:39:24Z) - Text-CRS: A Generalized Certified Robustness Framework against Textual Adversarial Attacks [39.51297217854375]
ランダムな平滑化に基づく自然言語処理(NLP)のための信頼性の高いロバストネスフレームワークであるText-CRSを提案する。
テキストCRSは、4つの異なる単語レベルの対数操作すべてに対処でき、精度が大幅に向上することを示す。
また,同義語置換攻撃に対する最先端認証よりも,単語レベルの4つの操作の精度と半径に関する最初のベンチマークも提供する。
論文 参考訳(メタデータ) (2023-07-31T13:08:16Z) - TPC: Transformation-Specific Smoothing for Point Cloud Models [9.289813586197882]
本稿では,意味的変換攻撃に対するポイントクラウドモデルの堅牢性を保証する,変換特異的な平滑化フレームワークTPCを提案する。
いくつかの一般的な3D変換の実験は、TPCが芸術の状態を著しく上回っていることを示している。
論文 参考訳(メタデータ) (2022-01-30T05:41:50Z) - SmoothMix: Training Confidence-calibrated Smoothed Classifiers for
Certified Robustness [61.212486108346695]
自己混合によるスムーズな分類器のロバスト性を制御するためのトレーニングスキームSmoothMixを提案する。
提案手法は, 厳密性に制限された原因として, 信頼性の低い, オフクラスに近いサンプルを効果的に同定する。
提案手法はスムーズな分類器の検証値である$ell$-robustnessを大幅に改善できることを示す。
論文 参考訳(メタデータ) (2021-11-17T18:20:59Z) - Orthogonalizing Convolutional Layers with the Cayley Transform [83.73855414030646]
直交に制約された畳み込み層をパラメータ化するための代替手法を提案し,評価する。
本手法は,大規模畳み込みにおいても直交性が高次に保たれることを示す。
論文 参考訳(メタデータ) (2021-04-14T23:54:55Z) - Consistent Non-Parametric Methods for Adaptive Robustness [26.016647703500887]
標準のロバストな学習フレームワークの大きな欠点は、すべての入力に適用される人工的なロバスト性半径$r$の固定です。
本稿では, 適応ロバスト性のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-18T00:44:07Z) - TSS: Transformation-Specific Smoothing for Robustness Certification [37.87602431929278]
動機付けられた敵は、セマンティックトランスフォーメーションを使用してテストデータを摂動することで、機械学習システムを誤解させる可能性がある。
TSS -- 汎用の敵対的セマンティックトランスフォーメーションに対して、MLの堅牢性を証明するための統一的なフレームワークを提供する。
TSSは大規模なImageNetデータセット上で、非自明な証明された堅牢性を実現する最初のアプローチであることを示す。
論文 参考訳(メタデータ) (2020-02-27T19:19:32Z) - Robustness Verification for Transformers [165.25112192811764]
我々はトランスフォーマーのための最初のロバスト性検証アルゴリズムを開発した。
提案手法で計算したロバスト性境界は, 素粒子間境界伝播法で計算したロバスト性境界よりもかなり厳密である。
これらの境界はまた、感情分析における異なる単語の重要性を常に反映しているトランスフォーマーの解釈にも光を当てている。
論文 参考訳(メタデータ) (2020-02-16T17:16:31Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。