論文の概要: Invariance-Aware Randomized Smoothing Certificates
- arxiv url: http://arxiv.org/abs/2211.14207v1
- Date: Fri, 25 Nov 2022 16:16:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 17:47:16.219288
- Title: Invariance-Aware Randomized Smoothing Certificates
- Title(参考訳): 分散認識型ランダム化平滑化証明書
- Authors: Jan Schuchardt, Stephan G\"unnemann
- Abstract要約: 本研究では,モデルの不変性を利用して予測の堅牢性を確実に保証する方法について検討する。
そこで我々は,ブラックボックスのランダム化スムース化手法を改良したグレーボックス手法を提案する。
証明可能な厳密な証明書は、より強力な保証を提供することができるが、現実的なシナリオでは、軌道ベースの手法が良い近似であることを示す。
- 参考スコア(独自算出の注目度): 1.52292571922932
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Building models that comply with the invariances inherent to different
domains, such as invariance under translation or rotation, is a key aspect of
applying machine learning to real world problems like molecular property
prediction, medical imaging, protein folding or LiDAR classification. For the
first time, we study how the invariances of a model can be leveraged to
provably guarantee the robustness of its predictions. We propose a gray-box
approach, enhancing the powerful black-box randomized smoothing technique with
white-box knowledge about invariances. First, we develop gray-box certificates
based on group orbits, which can be applied to arbitrary models with invariance
under permutation and Euclidean isometries. Then, we derive provably tight
gray-box certificates. We experimentally demonstrate that the provably tight
certificates can offer much stronger guarantees, but that in practical
scenarios the orbit-based method is a good approximation.
- Abstract(参考訳): 翻訳や回転における不変性など、異なるドメイン固有の不変性に従うモデルの構築は、分子特性予測、医用画像、タンパク質の折り畳み、LiDAR分類といった現実世界の問題に機械学習を適用する上で重要な側面である。
モデルの不均一性がどのように活用され、その予測の堅牢性を確実に保証できるかを初めて検討する。
我々は,不変性に関するホワイトボックス知識を用いて,強力なブラックボックスランダム平滑化手法を強化するグレイボックス手法を提案する。
まず, 群軌道に基づくグレーボックス証明書を開発し, 置換およびユークリッド等化の下で不変な任意のモデルに適用できる。
そして、確実にタイトなグレーボックス証明書を導き出す。
証明可能な厳密な証明書はより強力な保証を提供することができるが、実際は軌道ベースの手法が良い近似であることを示す。
関連論文リスト
- A Unified Theory of Stochastic Proximal Point Methods without Smoothness [52.30944052987393]
近点法はその数値的安定性と不完全なチューニングに対する頑健性からかなりの関心を集めている。
本稿では,近位点法(SPPM)の幅広いバリエーションの包括的解析について述べる。
論文 参考訳(メタデータ) (2024-05-24T21:09:19Z) - The Lipschitz-Variance-Margin Tradeoff for Enhanced Randomized Smoothing [85.85160896547698]
ディープニューラルネットワークの現実的な応用は、ノイズの多い入力や敵攻撃に直面した場合、その不安定な予測によって妨げられる。
入力にノイズ注入を頼りに、認証された半径を持つ効率的な分類器を設計する方法を示す。
新たな認証手法により、ランダムな平滑化による事前学習モデルの使用が可能となり、ゼロショット方式で現在の認証半径を効果的に改善できる。
論文 参考訳(メタデータ) (2023-09-28T22:41:47Z) - Bayesian Quantification with Black-Box Estimators [1.599072005190786]
調整された分類と数、ブラックボックスシフト推定器、不変比推定器などのアプローチでは、クラス分布を推定し、弱い仮定の下で保証を得る補助的(および潜在的に偏りのある)ブラックボックス分類器を用いる。
これら全てのアルゴリズムが特定のベイズ連鎖モデルにおける推論と密接に関連していることを示し、仮定された基底構造生成過程を近似する。
次に,導入モデルに対する効率的なマルコフ・モンテカルロサンプリング手法について検討し,大容量データ限界における一貫性の保証を示す。
論文 参考訳(メタデータ) (2023-02-17T22:10:04Z) - Prototypical Calibration for Few-shot Learning of Language Models [84.5759596754605]
GPTライクなモデルは、さまざまな手作りテンプレートやデモ順列にまたがる脆弱であると認識されている。
ゼロショットと少数ショットの分類において、より堅牢な決定境界を適応的に学習するためのプロトタイプキャリブレーションを提案する。
提案手法は決定境界を期待通りに校正し,テンプレート,置換,クラス不均衡に対するGPTの堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2022-05-20T13:50:07Z) - Certifying Model Accuracy under Distribution Shifts [151.67113334248464]
本稿では,データ分布の有界ワッサースタインシフトの下でのモデルの精度について,証明可能なロバスト性保証を提案する。
変換空間におけるモデルの入力をランダム化する単純な手順は、変換の下での分布シフトに対して確実に堅牢であることを示す。
論文 参考訳(メタデータ) (2022-01-28T22:03:50Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Deterministic Certification to Adversarial Attacks via Bernstein
Polynomial Approximation [5.392822954974537]
ランダム化された平滑化は、高い確率で$ell$標準敵攻撃に対する最先端の証明可能な堅牢性を確立している。
自然の精度を維持しながらランダム化せずにスムーズな分類器を構築することは可能か?
本手法は,決定境界平滑化のための決定論的アルゴリズムを提供する。
また、非線形方程式系の数値解を通したノルム非独立性証明ロバストネスの特異なアプローチも導入する。
論文 参考訳(メタデータ) (2020-11-28T08:27:42Z) - Knowing what you know: valid and validated confidence sets in multiclass
and multilabel prediction [0.8594140167290097]
マルチクラスおよびマルチラベル問題において、有効な信頼セットを構築するための共形予測手法を開発する。
量子レグレッションのアイデアを活用することで、常に正しいカバレッジを保証すると同時に、マルチクラスとマルチラベルの予測問題に対して条件付きカバレッジを提供する手法を構築する。
論文 参考訳(メタデータ) (2020-04-21T17:45:38Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。