論文の概要: Generalised Lipschitz Regularisation Equals Distributional Robustness
- arxiv url: http://arxiv.org/abs/2002.04197v1
- Date: Tue, 11 Feb 2020 04:19:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 01:17:53.810020
- Title: Generalised Lipschitz Regularisation Equals Distributional Robustness
- Title(参考訳): 一般リプシッツ正規化は分布ロバスト性に等しい
- Authors: Zac Cranko, Zhan Shi, Xinhua Zhang, Richard Nock, Simon Kornblith
- Abstract要約: 分布的ロバスト性と正規化の関係について、非常に一般的な等式結果を与える。
対立学習と分布ロバスト性の関係を明らかにする新しい結果を示す。
- 参考スコア(独自算出の注目度): 47.44261811369141
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The problem of adversarial examples has highlighted the need for a theory of
regularisation that is general enough to apply to exotic function classes, such
as universal approximators. In response, we give a very general equality result
regarding the relationship between distributional robustness and
regularisation, as defined with a transportation cost uncertainty set. The
theory allows us to (tightly) certify the robustness properties of a
Lipschitz-regularised model with very mild assumptions. As a theoretical
application we show a new result explicating the connection between adversarial
learning and distributional robustness. We then give new results for how to
achieve Lipschitz regularisation of kernel classifiers, which are demonstrated
experimentally.
- Abstract(参考訳): 逆の例の問題は、普遍近似子のようなエキゾチックな関数クラスに適用できるほど一般的である正規化の理論の必要性を強調している。
これに対し,輸送コストの不確実性セットで定義された分布的ロバスト性と正規化の関係について,非常に一般的な等式結果を与える。
この理論により、非常に穏やかな仮定でリプシッツ正規化モデルのロバスト性が(丁寧に)証明できる。
理論的応用として,敵対学習と分布ロバスト性の関係を解明する新たな結果を示す。
次に、実験により実証されたカーネル分類器のリプシッツ正則化を実現するための新しい結果を与える。
関連論文リスト
- Leveraging PAC-Bayes Theory and Gibbs Distributions for Generalization
Bounds with Complexity Measures [14.408127155170774]
我々は、分解されたPAC-Bayes境界の枠組みを活用し、任意の複雑性測度で瞬時化可能な一般一般化を導出する。
我々の境界は仮説と学習サンプルを共同で確率に立っており、これは複雑性を一般化ギャップに適応させることができる。
論文 参考訳(メタデータ) (2024-02-19T10:15:11Z) - Certifying Ensembles: A General Certification Theory with
S-Lipschitzness [128.2881318211724]
組み立ては、一般化、不確実性推定、校正、コンセプトドリフトの効果の緩和に有用であることが示されている。
本研究では、S-Lipschitz分類器を導入し、アンサンブルの理論的堅牢性を分析することにより、リプシッツ連続性を一般化する。
論文 参考訳(メタデータ) (2023-04-25T17:50:45Z) - Malign Overfitting: Interpolation Can Provably Preclude Invariance [30.776243638012314]
補間にもかかわらずモデルを適切に一般化する「良性過剰適合」は、堅牢性や公正性が望ましい設定に好ましくない可能性があることを示す。
本研究では,非補間型分類器の確率的不変性を学習するアルゴリズムを提案し,解析する。
論文 参考訳(メタデータ) (2022-11-28T19:17:31Z) - Controlling the Complexity and Lipschitz Constant improves polynomial
nets [55.121200972539114]
多項式ネットの結合CP分解(CCP)モデルとNested Coupled CP分解(NCP)モデルに対する新しい複雑性境界を導出する。
本研究では、6つのデータセットで実験的に評価し、モデルが逆摂動に対して頑健であるとともに精度も向上することを示す。
論文 参考訳(メタデータ) (2022-02-10T14:54:29Z) - Adversarially Robust Models may not Transfer Better: Sufficient
Conditions for Domain Transferability from the View of Regularization [17.825841580342715]
機械学習の堅牢性とドメインの一般化は基本的に相関している。
最近の研究では、より堅牢な(逆向きに訓練された)モデルの方がより一般化可能であることが示されている。
彼らの基本的な関係に関する理論的理解が欠如している。
論文 参考訳(メタデータ) (2022-02-03T20:26:27Z) - Fluctuations, Bias, Variance & Ensemble of Learners: Exact Asymptotics
for Convex Losses in High-Dimension [25.711297863946193]
我々は、異なる、しかし相関のある特徴に基づいて訓練された一般化線形モデルの集合における揺らぎの研究の理論を開発する。
一般凸損失と高次元限界における正則化のための経験的リスク最小化器の結合分布の完全な記述を提供する。
論文 参考訳(メタデータ) (2022-01-31T17:44:58Z) - Predicting Unreliable Predictions by Shattering a Neural Network [145.3823991041987]
線形ニューラルネットワークは、サブファンクションに分割することができる。
サブファンクションは、独自のアクティベーションパターン、ドメイン、経験的エラーを持っている。
完全なネットワークに対する経験的エラーは、サブファンクションに対する期待として記述できる。
論文 参考訳(メタデータ) (2021-06-15T18:34:41Z) - Causally-motivated Shortcut Removal Using Auxiliary Labels [63.686580185674195]
このようなリスク不変予測器の学習に重要な課題はショートカット学習である。
この課題に対処するために、フレキシブルで因果的なアプローチを提案する。
この因果的動機付けされた正規化スキームが堅牢な予測子を生み出すことを理論的および実証的に示す。
論文 参考訳(メタデータ) (2021-05-13T16:58:45Z) - Failures of model-dependent generalization bounds for least-norm
interpolation [39.97534972432276]
最小ノルム線形回帰器の一般化性能に関するバウンダリを考察する。
訓練例における様々な自然な関節分布に対して、任意の有効な一般化境界は非常に緩くなければならない。
論文 参考訳(メタデータ) (2020-10-16T16:30:05Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。