論文の概要: General Lipschitz: Certified Robustness Against Resolvable Semantic Transformations via Transformation-Dependent Randomized Smoothing
- arxiv url: http://arxiv.org/abs/2309.16710v2
- Date: Fri, 9 Aug 2024 16:17:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-12 20:51:27.972912
- Title: General Lipschitz: Certified Robustness Against Resolvable Semantic Transformations via Transformation-Dependent Randomized Smoothing
- Title(参考訳): General Lipschitz: 変換依存ランダム化平滑化による可解セマンティック変換に対するロバスト性証明
- Authors: Dmitrii Korzh, Mikhail Pautov, Olga Tsymboi, Ivan Oseledets,
- Abstract要約: 構成可能な可解なセマンティック摂動に対してニューラルネットワークを認証する新しいフレームワークであるEmph General Lipschitz (GL)を提案する。
提案手法は,ImageNetデータセットにおける最先端のアプローチと同等に機能する。
- 参考スコア(独自算出の注目度): 5.5855074442298696
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Randomized smoothing is the state-of-the-art approach to construct image classifiers that are provably robust against additive adversarial perturbations of bounded magnitude. However, it is more complicated to construct reasonable certificates against semantic transformation (e.g., image blurring, translation, gamma correction) and their compositions. In this work, we propose \emph{General Lipschitz (GL),} a new framework to certify neural networks against composable resolvable semantic perturbations. Within the framework, we analyze transformation-dependent Lipschitz-continuity of smoothed classifiers w.r.t. transformation parameters and derive corresponding robustness certificates. Our method performs comparably to state-of-the-art approaches on the ImageNet dataset.
- Abstract(参考訳): ランダム化平滑化(英: Randomized smoothing)は、有界な大きさの加法的対向摂動に対して確実に堅牢な画像分類器を構築するための最先端のアプローチである。
しかし、意味変換(例えば、画像のぼかし、翻訳、ガンマ補正)とその構成に対して妥当な証明書を構築することはより複雑である。
本研究では,構成可能な可解なセマンティック摂動に対してニューラルネットワークを認証する新しいフレームワークであるemph{General Lipschitz (GL)を提案する。
フレームワーク内では、スムーズな分類器w.r.t.変換パラメータの変換依存リプシッツ連続性を解析し、対応するロバスト性証明を導出する。
提案手法は,ImageNetデータセットにおける最先端のアプローチと同等に機能する。
関連論文リスト
- Verification of Geometric Robustness of Neural Networks via Piecewise Linear Approximation and Lipschitz Optimisation [57.10353686244835]
我々は、回転、スケーリング、せん断、翻訳を含む入力画像の幾何学的変換に対するニューラルネットワークの検証の問題に対処する。
提案手法は, 分枝・分枝リプシッツと組み合わせたサンプリングおよび線形近似を用いて, 画素値に対する楽音線形制約を求める。
提案手法では,既存の手法よりも最大32%の検証ケースが解決されている。
論文 参考訳(メタデータ) (2024-08-23T15:02:09Z) - Hierarchical Randomized Smoothing [94.59984692215426]
ランダムな平滑化は、モデルが入力の小さな変更に対して確実に堅牢にするための強力なフレームワークです。
階層的ランダム化平滑化(hierarchical randomized smoothing): ランダムに選択されたエンティティのサブセットにのみランダムノイズを加えることで、部分的に滑らかなオブジェクトを生成する。
画像およびノード分類における階層的スムージングの重要性を実験的に示す。
論文 参考訳(メタデータ) (2023-10-24T22:24:44Z) - The Lipschitz-Variance-Margin Tradeoff for Enhanced Randomized Smoothing [85.85160896547698]
ディープニューラルネットワークの現実的な応用は、ノイズの多い入力や敵攻撃に直面した場合、その不安定な予測によって妨げられる。
入力にノイズ注入を頼りに、認証された半径を持つ効率的な分類器を設計する方法を示す。
新たな認証手法により、ランダムな平滑化による事前学習モデルの使用が可能となり、ゼロショット方式で現在の認証半径を効果的に改善できる。
論文 参考訳(メタデータ) (2023-09-28T22:41:47Z) - GSmooth: Certified Robustness against Semantic Transformations via
Generalized Randomized Smoothing [40.38555458216436]
一般的な意味変換に対する堅牢性を証明するための統一的な理論的枠組みを提案する。
GSmoothフレームワークでは,画像と画像の代理ネットワークを用いて複雑な変換を近似するスケーラブルなアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-09T07:12:17Z) - SmoothMix: Training Confidence-calibrated Smoothed Classifiers for
Certified Robustness [61.212486108346695]
自己混合によるスムーズな分類器のロバスト性を制御するためのトレーニングスキームSmoothMixを提案する。
提案手法は, 厳密性に制限された原因として, 信頼性の低い, オフクラスに近いサンプルを効果的に同定する。
提案手法はスムーズな分類器の検証値である$ell$-robustnessを大幅に改善できることを示す。
論文 参考訳(メタデータ) (2021-11-17T18:20:59Z) - Orthogonalizing Convolutional Layers with the Cayley Transform [83.73855414030646]
直交に制約された畳み込み層をパラメータ化するための代替手法を提案し,評価する。
本手法は,大規模畳み込みにおいても直交性が高次に保たれることを示す。
論文 参考訳(メタデータ) (2021-04-14T23:54:55Z) - Lipschitz Regularized CycleGAN for Improving Semantic Robustness in
Unpaired Image-to-image Translation [19.083671868521918]
未ペア画像から画像への変換タスクでは、GANベースのアプローチはセマンティックフリップの影響を受けやすい。
セマンティックロバスト性向上のための新しい手法であるLipschitz regularized CycleGANを提案する。
複数の共通データセットに対するアプローチを評価し、既存のGANベースのメソッドと比較する。
論文 参考訳(メタデータ) (2020-12-09T09:28:53Z) - Consistency Regularization for Certified Robustness of Smoothed
Classifiers [89.72878906950208]
最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:57:43Z) - Certified Defense to Image Transformations via Randomized Smoothing [13.482057387436342]
ランダム化スムーシングを拡張して変換(例えば、回転、翻訳)をカバーし、パラメータ空間の証明を行う。
乱れや丸みを帯びた効果は、画像変換が構成されないことを意味するため、これは特に困難である。
本稿では,統計的誤差境界や画像変換の効率的な逆計算によって,個々の証明がどのように得られるかを示す。
論文 参考訳(メタデータ) (2020-02-27T22:02:32Z) - TSS: Transformation-Specific Smoothing for Robustness Certification [37.87602431929278]
動機付けられた敵は、セマンティックトランスフォーメーションを使用してテストデータを摂動することで、機械学習システムを誤解させる可能性がある。
TSS -- 汎用の敵対的セマンティックトランスフォーメーションに対して、MLの堅牢性を証明するための統一的なフレームワークを提供する。
TSSは大規模なImageNetデータセット上で、非自明な証明された堅牢性を実現する最初のアプローチであることを示す。
論文 参考訳(メタデータ) (2020-02-27T19:19:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。