論文の概要: Probabilistic Verification of ReLU Neural Networks via Characteristic
Functions
- arxiv url: http://arxiv.org/abs/2212.01544v1
- Date: Sat, 3 Dec 2022 05:53:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 19:29:15.280406
- Title: Probabilistic Verification of ReLU Neural Networks via Characteristic
Functions
- Title(参考訳): 特性関数を用いたreluニューラルネットワークの確率的検証
- Authors: Joshua Pilipovsky, Vignesh Sivaramakrishnan, Meeko M. K. Oishi,
Panagiotis Tsiotras
- Abstract要約: 我々は、周波数領域における確率理論のアイデアを用いて、ReLUニューラルネットワークの確率論的検証保証を提供する。
我々は、(深い)フィードフォワードニューラルネットワークを有限地平線上の離散力学系として解釈する。
出力集合の累積分布関数を求め,ネットワークが期待通りに動作しているかどうかを確認する。
- 参考スコア(独自算出の注目度): 11.489187712465325
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Verifying the input-output relationships of a neural network so as to achieve
some desired performance specification is a difficult, yet important, problem
due to the growing ubiquity of neural nets in many engineering applications. We
use ideas from probability theory in the frequency domain to provide
probabilistic verification guarantees for ReLU neural networks. Specifically,
we interpret a (deep) feedforward neural network as a discrete dynamical system
over a finite horizon that shapes distributions of initial states, and use
characteristic functions to propagate the distribution of the input data
through the network. Using the inverse Fourier transform, we obtain the
corresponding cumulative distribution function of the output set, which can be
used to check if the network is performing as expected given any random point
from the input set. The proposed approach does not require distributions to
have well-defined moments or moment generating functions. We demonstrate our
proposed approach on two examples, and compare its performance to related
approaches.
- Abstract(参考訳): 所望のパフォーマンス仕様を達成するためにニューラルネットワークの入出力関係を検証することは、多くのエンジニアリングアプリケーションでニューラルネットワークが多用されているため、難しいが重要な問題である。
我々は、周波数領域における確率理論のアイデアを用いて、ReLUニューラルネットワークの確率論的検証保証を提供する。
具体的には、(深い)フィードフォワードニューラルネットワークを、初期状態の分布を形作る有限地平線上の離散力学系として解釈し、特性関数を用いて入力データのネットワークを介した分布を伝播する。
逆フーリエ変換を用いて出力集合の対応する累積分布関数を求め,入力集合から任意のランダム点が与えられた場合,ネットワークが期待通りに動作しているかどうかを確認する。
提案手法では, 適切に定義されたモーメントやモーメント生成関数を持たなくてもよい。
提案手法を2つの例で示し,その性能を関連する手法と比較した。
関連論文リスト
- An Analytic Solution to Covariance Propagation in Neural Networks [10.013553984400488]
本稿では,ニューラルネットワークの入出力分布を正確に特徴付けるために,サンプルフリーモーメント伝搬法を提案する。
この手法の鍵となる有効性は、非線形活性化関数を通した確率変数の共分散に対する解析解である。
学習ニューラルネットワークの入力出力分布を分析し,ベイズニューラルネットワークを訓練する実験において,提案手法の適用性およびメリットを示す。
論文 参考訳(メタデータ) (2024-03-24T14:08:24Z) - Tractable Function-Space Variational Inference in Bayesian Neural
Networks [72.97620734290139]
ニューラルネットワークの予測不確かさを推定するための一般的なアプローチは、ネットワークパラメータに対する事前分布を定義することである。
本稿では,事前情報を組み込むスケーラブルな関数空間変動推論手法を提案する。
提案手法は,様々な予測タスクにおいて,最先端の不確実性評価と予測性能をもたらすことを示す。
論文 参考訳(メタデータ) (2023-12-28T18:33:26Z) - Learning Theory of Distribution Regression with Neural Networks [6.961253535504979]
完全連結ニューラルネットワーク(FNN)による近似理論と分布回帰の学習理論を確立する。
古典回帰法とは対照的に、分布回帰の入力変数は確率測度である。
論文 参考訳(メタデータ) (2023-07-07T09:49:11Z) - Points of non-linearity of functions generated by random neural networks [0.0]
1つの隠れ活性化層、任意の幅、ReLU活性化関数を持つニューラルネットワークによって出力される実数から実数への関数を考える。
非線型性の点の期待分布を計算する。
論文 参考訳(メタデータ) (2023-04-19T17:40:19Z) - Semantic Strengthening of Neuro-Symbolic Learning [85.6195120593625]
ニューロシンボリックアプローチは一般に確率論的目的のファジィ近似を利用する。
トラクタブル回路において,これを効率的に計算する方法を示す。
我々は,Warcraftにおける最小コストパスの予測,最小コスト完全マッチングの予測,スドクパズルの解法という3つの課題に対して,アプローチを検証した。
論文 参考訳(メタデータ) (2023-02-28T00:04:22Z) - Mitigating Performance Saturation in Neural Marked Point Processes:
Architectures and Loss Functions [50.674773358075015]
本稿では,グラフ畳み込み層のみを利用するGCHPという単純なグラフベースのネットワーク構造を提案する。
我々は,GCHPがトレーニング時間を大幅に短縮し,時間間確率仮定による確率比損失がモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2021-07-07T16:59:14Z) - Adversarial Examples Detection with Bayesian Neural Network [57.185482121807716]
本稿では,ランダムな成分が予測器の滑らかさを向上できるという観測によって動機づけられた敵の例を検出するための新しい枠組みを提案する。
本稿では,BATer を略した新しいベイズ対向型サンプル検出器を提案し,対向型サンプル検出の性能を向上させる。
論文 参考訳(メタデータ) (2021-05-18T15:51:24Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Probabilistic Numeric Convolutional Neural Networks [80.42120128330411]
画像や時系列などの連続的な入力信号は、不規則にサンプリングされたり、値が欠けていたりすることは、既存のディープラーニング手法では困難である。
ガウス過程(GP)として特徴を表す確率的畳み込みニューラルネットワークを提案する。
次に、畳み込み層を、このGP上で定義されたPDEの進化として定義し、次いで非線形性とする。
実験では,SuperPixel-MNISTデータセットの先行技術と医療時間2012データセットの競合性能から,提案手法の誤差を3倍に削減できることが示されている。
論文 参考訳(メタデータ) (2020-10-21T10:08:21Z) - The Ridgelet Prior: A Covariance Function Approach to Prior
Specification for Bayesian Neural Networks [4.307812758854161]
ネットワークの出力空間における擬似ガウス過程を近似したネットワークのパラメータに対する事前分布を構築する。
これにより、ベイズニューラルネットワークが共分散関数が十分正則である任意のガウス過程を近似できるという性質が確立される。
論文 参考訳(メタデータ) (2020-10-16T16:39:45Z) - A function space analysis of finite neural networks with insights from
sampling theory [41.07083436560303]
非拡張活性化関数を持つ多層ネットワークが生成する関数空間は滑らかであることを示す。
入力が帯域制限の仮定の下では、新しいエラー境界を提供する。
前者の利点を示す決定論的一様とランダムサンプリングの両方を解析した。
論文 参考訳(メタデータ) (2020-04-15T10:25:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。