論文の概要: Robust and Provably Monotonic Networks
- arxiv url: http://arxiv.org/abs/2112.00038v1
- Date: Tue, 30 Nov 2021 19:01:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 06:24:38.954777
- Title: Robust and Provably Monotonic Networks
- Title(参考訳): 堅牢で証明可能な単調ネットワーク
- Authors: Ouail Kitouni, Niklas Nolte, Mike Williams
- Abstract要約: 深層学習モデルのリプシッツ定数を制約する新しい手法を提案する。
LHCbのリアルタイムデータ処理システムにおいて, 強靭で解釈可能な判別器を学習するために, アルゴリズムがどのように使われたかを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Lipschitz constant of the map between the input and output space
represented by a neural network is a natural metric for assessing the
robustness of the model. We present a new method to constrain the Lipschitz
constant of dense deep learning models that can also be generalized to other
architectures. The method relies on a simple weight normalization scheme during
training that ensures the Lipschitz constant of every layer is below an upper
limit specified by the analyst. A simple residual connection can then be used
to make the model monotonic in any subset of its inputs, which is useful in
scenarios where domain knowledge dictates such dependence. Examples can be
found in algorithmic fairness requirements or, as presented here, in the
classification of the decays of subatomic particles produced at the CERN Large
Hadron Collider. Our normalization is minimally constraining and allows the
underlying architecture to maintain higher expressiveness compared to other
techniques which aim to either control the Lipschitz constant of the model or
ensure its monotonicity. We show how the algorithm was used to train a
powerful, robust, and interpretable discriminator for heavy-flavor decays in
the LHCb realtime data-processing system.
- Abstract(参考訳): ニューラルネットワークで表現される入力空間と出力空間の間のマップのリプシッツ定数は、モデルのロバスト性を評価するための自然な指標である。
本稿では,他のアーキテクチャにも一般化可能な深層学習モデルのリプシッツ定数を制約する新しい手法を提案する。
この方法は、訓練中の単純な重量正規化スキームに依存し、各層のリプシッツ定数がアナリストが指定する上限よりも低いことを保証する。
単純な残余接続は入力の任意の部分集合におけるモデル単調化に使用することができ、ドメイン知識がそのような依存を規定するシナリオで有用である。
例えば、アルゴリズムのフェアネス要件や、cernの大型ハドロン衝突型加速器で生成された亜原子粒子の崩壊の分類などに見ることができる。
我々の正規化は最小限の制約であり、モデルのリプシッツ定数を制御することや、その単調性を保証することを目的とした他の手法と比較して、基礎となるアーキテクチャは高い表現性を維持することができる。
LHCbのリアルタイムデータ処理システムにおいて, 強靭で解釈可能な判別器を学習するために, アルゴリズムがどのように使われたかを示す。
関連論文リスト
- Expressive Monotonic Neural Networks [1.0128808054306184]
ニューラルネットワークの出力のいくつかの入力に対する単調な依存は、ドメイン知識がそのような振る舞いを規定する多くのシナリオにおいて決定的な帰納的バイアスである。
入力の任意の部分集合における正確な単調依存を実現するために, 単一の残差接続を持つ重み制約アーキテクチャを提案する。
このアルゴリズムが、競争性能を達成するための強力で堅牢で解釈可能な識別器の訓練にどのように使われているかを示す。
論文 参考訳(メタデータ) (2023-07-14T17:59:53Z) - Efficient Bound of Lipschitz Constant for Convolutional Layers by Gram
Iteration [122.51142131506639]
循環行列理論を用いて畳み込み層のスペクトルノルムに対して、精密で高速で微分可能な上界を導入する。
提案手法は, 精度, 計算コスト, スケーラビリティの観点から, 他の最先端手法よりも優れていることを示す。
これは畳み込みニューラルネットワークのリプシッツ正則化に非常に効果的であり、並行アプローチに対する競合的な結果である。
論文 参考訳(メタデータ) (2023-05-25T15:32:21Z) - Efficiently Computing Local Lipschitz Constants of Neural Networks via
Bound Propagation [79.13041340708395]
リプシッツ定数は、堅牢性、公正性、一般化など、ニューラルネットワークの多くの性質と結びついている。
既存のリプシッツ定数の計算法は、相対的に緩い上界を生成するか、小さなネットワークに制限される。
ニューラルネットワークの局所リプシッツ定数$ell_infty$をクラーク・ヤコビアンのノルムを強く上向きに上向きに計算する効率的なフレームワークを開発する。
論文 参考訳(メタデータ) (2022-10-13T22:23:22Z) - Git Re-Basin: Merging Models modulo Permutation Symmetries [3.5450828190071655]
提案手法は,大規模ネットワークに適合する簡単なアルゴリズムを実例で示す。
我々は、独立に訓練されたモデル間のゼロモード接続の最初のデモ(私たちの知る限り)を実演する。
また、線形モード接続仮説の欠点についても論じる。
論文 参考訳(メタデータ) (2022-09-11T10:44:27Z) - Lipschitz Continuity Retained Binary Neural Network [52.17734681659175]
我々は,BNNのモデルロバスト性を定義するための厳密な基準として,リプシッツ連続性を導入する。
次に、モデルロバスト性を改善するための正規化項としてリプシッツ連続性を維持することを提案する。
実験により,我々のBNN固有の正規化手法は,BNNの堅牢性を効果的に強化できることが証明された。
論文 参考訳(メタデータ) (2022-07-13T22:55:04Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z) - On Lipschitz Regularization of Convolutional Layers using Toeplitz
Matrix Theory [77.18089185140767]
リプシッツ正則性は現代のディープラーニングの重要な性質として確立されている。
ニューラルネットワークのリプシッツ定数の正確な値を計算することはNPハードであることが知られている。
より厳密で計算が容易な畳み込み層に対する新しい上限を導入する。
論文 参考訳(メタデータ) (2020-06-15T13:23:34Z) - Kernel and Rich Regimes in Overparametrized Models [69.40899443842443]
過度にパラメータ化された多層ネットワーク上の勾配勾配は、RKHSノルムではないリッチな暗黙バイアスを誘発できることを示す。
また、より複雑な行列分解モデルと多層非線形ネットワークに対して、この遷移を実証的に示す。
論文 参考訳(メタデータ) (2020-02-20T15:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。