論文の概要: Verifying Probabilistic Specifications with Functional Lagrangians
- arxiv url: http://arxiv.org/abs/2102.09479v1
- Date: Thu, 18 Feb 2021 17:00:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-19 18:12:00.386203
- Title: Verifying Probabilistic Specifications with Functional Lagrangians
- Title(参考訳): 機能ラグランジアンによる確率的仕様の検証
- Authors: Leonard Berrada, Sumanth Dathathri, Krishnamurthy (Dj) Dvijotham,
Robert Stanforth, Rudy Bunel, Jonathan Uesato, Sven Gowal, M. Pawan Kumar
- Abstract要約: 機能的ラグランジュ乗算器を用いてニューラルネットワークの入出力仕様を検証するためのフレームワークを提案する。
機能乗算器の十分に柔軟なクラスが選択されると、フレームワークは確実に厳密な検証につながることを示す。
- 参考スコア(独自算出の注目度): 47.81366702121604
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a general framework for verifying input-output specifications of
neural networks using functional Lagrange multipliers that generalizes standard
Lagrangian duality. We derive theoretical properties of the framework, which
can handle arbitrary probabilistic specifications, showing that it provably
leads to tight verification when a sufficiently flexible class of functional
multipliers is chosen. With a judicious choice of the class of functional
multipliers, the framework can accommodate desired trade-offs between tightness
and complexity. We demonstrate empirically that the framework can handle a
diverse set of networks, including Bayesian neural networks with Gaussian
posterior approximations, MC-dropout networks, and verify specifications on
adversarial robustness and out-of-distribution(OOD) detection. Our framework
improves upon prior work in some settings and also generalizes to new
stochastic networks and probabilistic specifications, like distributionally
robust OOD detection.
- Abstract(参考訳): 本稿では,標準ラグランジュ双対性を一般化した関数ラグランジュ乗算器を用いて,ニューラルネットワークの入出力仕様を検証する汎用フレームワークを提案する。
任意の確率的仕様を扱えるフレームワークの理論的性質を導出し、十分に柔軟な機能的乗算器のクラスが選択された場合、それが確実に厳密な検証につながることを示す。
関数的乗数クラスの司法的選択により、このフレームワークは厳密性と複雑性の間の望ましいトレードオフを許容できる。
このフレームワークは,ガウス後部近似を用いたベイズニューラルネットワーク,MCドロップアウトネットワークなど,多様なネットワークを扱えることを実証的に証明し,対向ロバスト性およびアウト・オブ・ディストリビューション(OOD)検出の仕様を検証した。
我々のフレームワークは、いくつかの設定における事前作業を改善するとともに、分散的に堅牢なOOD検出など、新しい確率的ネットワークや確率的仕様に一般化する。
関連論文リスト
- Probabilistic Verification of ReLU Neural Networks via Characteristic
Functions [11.489187712465325]
我々は、周波数領域における確率理論のアイデアを用いて、ReLUニューラルネットワークの確率論的検証保証を提供する。
我々は、(深い)フィードフォワードニューラルネットワークを有限地平線上の離散力学系として解釈する。
出力集合の累積分布関数を求め,ネットワークが期待通りに動作しているかどうかを確認する。
論文 参考訳(メタデータ) (2022-12-03T05:53:57Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Semantic Probabilistic Layers for Neuro-Symbolic Learning [83.25785999205932]
我々は構造化出力予測(SOP)のための予測層を設計する。
予測が事前に定義されたシンボリック制約のセットと一致していることを保証するため、任意のニューラルネットワークにプラグインすることができる。
我々のセマンティック確率層(SPL)は、構造化された出力空間上で複雑な相関や制約をモデル化することができる。
論文 参考訳(メタデータ) (2022-06-01T12:02:38Z) - Bayesian Attention Belief Networks [59.183311769616466]
注意に基づくニューラルネットワークは、幅広いタスクにおいて最先端の結果を得た。
本稿では,非正規化注意重みをモデル化してデコーダネットワークを構築するベイズ的注意信念ネットワークについて紹介する。
提案手法は, 精度, 不確実性推定, ドメイン間の一般化, 敵攻撃において, 決定論的注意と最先端の注意よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-09T17:46:22Z) - Probabilistic Graph Attention Network with Conditional Kernels for
Pixel-Wise Prediction [158.88345945211185]
本稿では,画素レベルの予測を基本的側面,すなわち,技術の現状を推し進める新たなアプローチを提案する。
構造化されたマルチスケール機能学習と融合。
本論文では,マルチスケール表現を原理的に学習・融合するための新しいアテンテンションゲート条件ランダムフィールド(AG-CRFs)モデルに基づく確率的グラフアテンションネットワーク構造を提案する。
論文 参考訳(メタデータ) (2021-01-08T04:14:29Z) - Probabilistic electric load forecasting through Bayesian Mixture Density
Networks [70.50488907591463]
確率的負荷予測(PLF)は、スマートエネルギーグリッドの効率的な管理に必要な拡張ツールチェーンの重要なコンポーネントです。
ベイジアン混合密度ネットワークを枠とした新しいPLFアプローチを提案する。
後方分布の信頼性と計算にスケーラブルな推定を行うため,平均場変動推定と深層アンサンブルを統合した。
論文 参考訳(メタデータ) (2020-12-23T16:21:34Z) - DebiNet: Debiasing Linear Models with Nonlinear Overparameterized Neural
Networks [11.04121146441257]
パラメータ化ニューラルネットワークを半パラメトリックモデルに組み込んで推論と予測のギャップを埋める。
我々はこれを可能とし、数値実験で実証する理論的基礎を示す。
半パラメトリックニューラルネットワークに任意の特徴選択手法をプラグインするフレームワークであるDebiNetを提案する。
論文 参考訳(メタデータ) (2020-11-01T04:12:53Z) - Tractably Modelling Dependence in Networks Beyond Exchangeability [0.0]
本研究では, ネットワークの推定, クラスタリング, 次数挙動について検討する。
このことは、一般的には交換不能なネットワークデータをブロックモデルで記述できる理由と方法を探る。
論文 参考訳(メタデータ) (2020-07-28T17:13:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。