論文の概要: A Domain-Theoretic Framework for Robustness Analysis of Neural Networks
- arxiv url: http://arxiv.org/abs/2203.00295v1
- Date: Tue, 1 Mar 2022 09:01:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-02 20:47:56.592969
- Title: A Domain-Theoretic Framework for Robustness Analysis of Neural Networks
- Title(参考訳): ニューラルネットワークのロバスト性解析のためのドメイン理論フレームワーク
- Authors: Can Zhou, Razin A. Shaikh, Yiran Li, Amin Farjudian
- Abstract要約: 本稿では,ニューラルネットワークのロバスト性評価のためのドメイン理論フレームワークを提案する。
フィードフォワード回帰器のリプシッツ定数推定のための検証アルゴリズムを開発した。
我々のドメインモデルでは、微分可能ネットワークと非微分可能ネットワークを均一に分析することができる。
- 参考スコア(独自算出の注目度): 2.425920001184443
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a domain-theoretic framework for validated robustness analysis of
neural networks. We first analyze the global robustness of a general class of
networks. Then, using the fact that, over finite-dimensional Banach spaces, the
domain-theoretic L-derivative coincides with Clarke's generalized gradient, we
extend our framework for attack-agnostic local robustness analysis. Our
framework is ideal for designing algorithms which are correct by construction.
We exemplify this claim by developing a validated algorithm for estimation of
Lipschitz constant of feedforward regressors. We prove the completeness of the
algorithm over differentiable networks, and also over general position ReLU
networks. Within our domain model, differentiable and non-differentiable
networks can be analyzed uniformly. We implement our algorithm using
arbitrary-precision interval arithmetic, and present the results of some
experiments. Our implementation is truly validated, as it handles
floating-point errors as well.
- Abstract(参考訳): 本稿では,ニューラルネットワークのロバスト性評価のためのドメイン理論フレームワークを提案する。
まず、一般的なネットワークのグローバルなロバスト性を分析する。
そして、有限次元バナッハ空間上では、領域論的 L-導関数がクラークの一般化勾配と一致するという事実を用いて、攻撃に依存しない局所ロバスト性解析の枠組みを拡張する。
私たちのフレームワークは、構築によって正しいアルゴリズムを設計するのに理想的です。
フィードフォワード回帰器のリプシッツ定数推定のための検証アルゴリズムを開発することにより、この主張を実証する。
微分可能ネットワーク上でのアルゴリズムの完全性および一般位置ReLUネットワーク上でのアルゴリズムの完全性を証明する。
我々のドメインモデルでは、微分可能ネットワークと非微分可能ネットワークを均一に分析することができる。
本アルゴリズムは任意精度区間演算を用いて実装し,いくつかの実験結果を示す。
私たちの実装は、浮動小数点エラーも処理するため、真に検証されています。
関連論文リスト
- A Globally Convergent Algorithm for Neural Network Parameter
Optimization Based on Difference-of-Convex Functions [29.58728073957055]
隠れ層ネットワークのパラメータを最適化するアルゴリズムを提案する。
具体的には,ブロックワイズ(DC-of-the-art)差分関数を導出する。
論文 参考訳(メタデータ) (2024-01-15T19:53:35Z) - Does a sparse ReLU network training problem always admit an optimum? [0.0]
最適解の存在は、特にスパースReLUニューラルネットワークの文脈において、必ずしも保証されないことを示す。
特に,特定の疎度パターンを持つディープネットワークにおける最適化問題は,必ずしも最適パラメータを持つとは限らないことを示す。
論文 参考訳(メタデータ) (2023-06-05T08:01:50Z) - Structured Optimal Variational Inference for Dynamic Latent Space Models [16.531262817315696]
動的ネットワークの潜在空間モデルについて検討し、その目的は、ペアの内積と潜在位置のインターセプトを推定することである。
後部推論と計算スケーラビリティのバランスをとるために、構造的平均場変動推論フレームワークを検討する。
論文 参考訳(メタデータ) (2022-09-29T22:10:42Z) - On the Effective Number of Linear Regions in Shallow Univariate ReLU
Networks: Convergence Guarantees and Implicit Bias [50.84569563188485]
我々は、ラベルが$r$のニューロンを持つターゲットネットワークの符号によって決定されるとき、勾配流が方向収束することを示す。
我々の結果は、標本サイズによらず、幅が$tildemathcalO(r)$である、緩やかなオーバーパラメータ化をすでに維持しているかもしれない。
論文 参考訳(メタデータ) (2022-05-18T16:57:10Z) - Robust Learning of Parsimonious Deep Neural Networks [0.0]
本稿では,ニューラルネットワークにおける無関係構造を識別・排除できる同時学習および刈り取りアルゴリズムを提案する。
最適選択に欠かせないパラメータに対して,新しい超優先度分布を導出する。
我々は,提案アルゴリズムをMNISTデータセット上で評価し,完全連結型および畳み込み型LeNetアーキテクチャを用いた。
論文 参考訳(メタデータ) (2022-05-10T03:38:55Z) - Path Regularization: A Convexity and Sparsity Inducing Regularization
for Parallel ReLU Networks [75.33431791218302]
本稿では,ディープニューラルネットワークのトレーニング問題について検討し,最適化環境に隠された凸性を明らかにするための解析的アプローチを提案する。
我々は、標準のディープ・ネットワークとResNetを特別なケースとして含む、ディープ・パラレルなReLUネットワークアーキテクチャについて検討する。
論文 参考訳(メタデータ) (2021-10-18T18:00:36Z) - Proxy Convexity: A Unified Framework for the Analysis of Neural Networks
Trained by Gradient Descent [95.94432031144716]
学習ネットワークの分析のための統合された非最適化フレームワークを提案する。
既存の保証は勾配降下により統一することができることを示す。
論文 参考訳(メタデータ) (2021-06-25T17:45:00Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z) - A Bit More Bayesian: Domain-Invariant Learning with Uncertainty [111.22588110362705]
ドメインの一般化は、ドメインシフトと、ターゲットドメインデータのアクセス不能に起因する不確実性のために困難である。
本稿では,変分ベイズ推定に基づく確率的枠組みを用いて,両課題に対処する。
2層ベイズ型ニューラルネットワークで共同で確立されたドメイン不変表現と分類器を導出する。
論文 参考訳(メタデータ) (2021-05-09T21:33:27Z) - A Convergence Theory Towards Practical Over-parameterized Deep Neural
Networks [56.084798078072396]
ネットワーク幅と収束時間の両方で既知の理論境界を大幅に改善することにより、理論と実践のギャップを埋める一歩を踏み出します。
本研究では, サンプルサイズが2次幅で, 両者の時間対数で線形なネットワークに対して, 地球最小値への収束が保証されていることを示す。
私たちの分析と収束境界は、いつでも合理的なサイズの同等のRELUネットワークに変換できる固定アクティベーションパターンを備えたサロゲートネットワークの構築によって導出されます。
論文 参考訳(メタデータ) (2021-01-12T00:40:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。