論文の概要: Noise Sensitivity and Stability of Deep Neural Networks for Binary
Classification
- arxiv url: http://arxiv.org/abs/2308.09374v1
- Date: Fri, 18 Aug 2023 08:09:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 13:54:55.550349
- Title: Noise Sensitivity and Stability of Deep Neural Networks for Binary
Classification
- Title(参考訳): 二元分類のためのディープニューラルネットワークの雑音感度と安定性
- Authors: Johan Jonasson, Jeffrey E. Steif and Olof Zetterqvist
- Abstract要約: 一般的なDNNモデルで表されるブール関数のある種の列がノイズ感受性かノイズ安定かを問う。
DNNモデルの自然ランダム性のため、これらの概念は熱処理および焼成バージョンに拡張される。
ガウス重みを始点とする2つの標準DNNアーキテクチャ(完全連結モデルと畳み込みモデル)の特性について検討する。
- 参考スコア(独自算出の注目度): 0.9438207505148947
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A first step is taken towards understanding often observed non-robustness
phenomena of deep neural net (DNN) classifiers. This is done from the
perspective of Boolean functions by asking if certain sequences of Boolean
functions represented by common DNN models are noise sensitive or noise stable,
concepts defined in the Boolean function literature. Due to the natural
randomness in DNN models, these concepts are extended to annealed and quenched
versions. Here we sort out the relation between these definitions and
investigate the properties of two standard DNN architectures, the fully
connected and convolutional models, when initiated with Gaussian weights.
- Abstract(参考訳): 最初のステップは、ディープ・ニューラルネット(DNN)分類器のしばしば観測される非破壊現象を理解することである。
これはブール関数の観点から、一般的なDNNモデルで表されるブール関数の特定の列がノイズ感受性であるか、あるいはノイズ安定であるかを問うことで実現される。
DNNモデルの自然ランダム性のため、これらの概念は熱処理および焼成バージョンに拡張される。
ここでは、これらの定義間の関係を整理し、ガウス重みを始点とする2つの標準DNNアーキテクチャ(完全連結モデルと畳み込みモデル)の特性について検討する。
関連論文リスト
- Novel Kernel Models and Exact Representor Theory for Neural Networks Beyond the Over-Parameterized Regime [52.00917519626559]
本稿では、ニューラルネットワークの2つのモデルと、任意の幅、深さ、トポロジーのニューラルネットワークに適用可能なトレーニングについて述べる。
また、局所外在性神経核(LeNK)の観点から、非正規化勾配降下を伴う階層型ニューラルネットワークトレーニングのための正確な表現子理論を提示する。
この表現論は、ニューラルネットワークトレーニングにおける高次統計学の役割と、ニューラルネットワークのカーネルモデルにおけるカーネル進化の影響について洞察を与える。
論文 参考訳(メタデータ) (2024-05-24T06:30:36Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Neural Additive Models for Location Scale and Shape: A Framework for
Interpretable Neural Regression Beyond the Mean [1.0923877073891446]
ディープニューラルネットワーク(DNN)は、様々なタスクで非常に効果的であることが証明されている。
この成功にもかかわらず、DNNの内部構造はしばしば透明ではない。
この解釈可能性の欠如は、本質的に解釈可能なニューラルネットワークの研究の増加につながった。
論文 参考訳(メタデータ) (2023-01-27T17:06:13Z) - Spiking Neural Networks -- Part II: Detecting Spatio-Temporal Patterns [38.518936229794214]
スパイキングニューラルネットワーク(SNN)は、符号化された時間信号で情報を検出するユニークな能力を持つ。
SNNをリカレントニューラルネットワーク(RNN)とみなす支配的アプローチのためのモデルとトレーニングアルゴリズムについてレビューする。
スパイキングニューロンの確率モデルに頼り、勾配推定による局所学習規則の導出を可能にする別のアプローチについて述べる。
論文 参考訳(メタデータ) (2020-10-27T11:47:42Z) - Stability of Algebraic Neural Networks to Small Perturbations [179.55535781816343]
Algebraic Neural Network (AlgNN) は、代数的信号モデルと関連する各層のカスケードで構成されている。
畳み込みという形式的な概念を用いるアーキテクチャは、シフト演算子の特定の選択を超えて、いかに安定であるかを示す。
論文 参考訳(メタデータ) (2020-10-22T09:10:16Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - Understanding Recurrent Neural Networks Using Nonequilibrium Response
Theory [5.33024001730262]
リカレントニューラルネットワーク(Recurrent Neural Network, RNN)は、シーケンシャルデータの解析に機械学習で広く使用される脳モデルである。
非平衡統計力学からの応答理論を用いてRNNが入力信号を処理する方法を示す。
論文 参考訳(メタデータ) (2020-06-19T10:09:09Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。