論文の概要: From Compass and Ruler to Convolution and Nonlinearity: On the
Surprising Difficulty of Understanding a Simple CNN Solving a Simple
Geometric Estimation Task
- arxiv url: http://arxiv.org/abs/2303.06638v1
- Date: Sun, 12 Mar 2023 11:30:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 17:46:12.102621
- Title: From Compass and Ruler to Convolution and Nonlinearity: On the
Surprising Difficulty of Understanding a Simple CNN Solving a Simple
Geometric Estimation Task
- Title(参考訳): コンパスと定規から畳み込みと非線形へ : 単純な幾何推定課題を解いた単純なcnnを理解することの驚くべき難しさについて
- Authors: Thomas Dag\`es, Michael Lindenbaum, Alfred M. Bruckstein
- Abstract要約: 本稿では, 単純な畳み込みニューラルネットワークを用いて, 簡単な学習問題に対処することを提案する。
驚くべきことに、訓練されたネットワークが学んだことを理解することは難しく、ある程度は直感に反する。
- 参考スコア(独自算出の注目度): 6.230751621285322
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks are omnipresent, but remain poorly understood. Their
increasing complexity and use in critical systems raises the important
challenge to full interpretability. We propose to address a simple well-posed
learning problem: estimating the radius of a centred pulse in a one-dimensional
signal or of a centred disk in two-dimensional images using a simple
convolutional neural network. Surprisingly, understanding what trained networks
have learned is difficult and, to some extent, counter-intuitive. However, an
in-depth theoretical analysis in the one-dimensional case allows us to
comprehend constraints due to the chosen architecture, the role of each filter
and of the nonlinear activation function, and every single value taken by the
weights of the model. Two fundamental concepts of neural networks arise: the
importance of invariance and of the shape of the nonlinear activation
functions.
- Abstract(参考訳): ニューラルネットワークは全能だが、まだ理解されていない。
重要なシステムにおける複雑性と利用の増加は、完全な解釈可能性に対する重要な課題を提起する。
本稿では、単純な畳み込みニューラルネットワークを用いて、1次元信号における中心パルスの半径、または2次元画像における中心円盤の半径を推定する。
驚くべきことに、訓練されたネットワークが学んだことを理解することは難しく、ある程度は直感に反する。
しかし、1次元の場合の深い理論的解析により、選択されたアーキテクチャ、各フィルタと非線形活性化関数の役割、およびモデルの重みによって取られる全ての値による制約を理解することができる。
ニューラルネットワークの2つの基本的な概念は、不変性の重要性と非線形活性化関数の形状である。
関連論文リスト
- Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Simple initialization and parametrization of sinusoidal networks via
their kernel bandwidth [92.25666446274188]
従来の活性化機能を持つネットワークの代替として、活性化を伴う正弦波ニューラルネットワークが提案されている。
まず,このような正弦波ニューラルネットワークの簡易版を提案する。
次に、ニューラルタンジェントカーネルの観点からこれらのネットワークの挙動を分析し、そのカーネルが調整可能な帯域幅を持つ低域フィルタを近似することを実証する。
論文 参考訳(メタデータ) (2022-11-26T07:41:48Z) - Neural networks trained with SGD learn distributions of increasing
complexity [78.30235086565388]
勾配降下法を用いてトレーニングされたニューラルネットワークは、まず低次入力統計を用いて入力を分類する。
その後、トレーニング中にのみ高次の統計を利用する。
本稿では,DSBと他の単純度バイアスとの関係について論じ,学習における普遍性の原理にその意味を考察する。
論文 参考訳(メタデータ) (2022-11-21T15:27:22Z) - Training Integrable Parameterizations of Deep Neural Networks in the
Infinite-Width Limit [0.0]
大きな幅のダイナミクスは実世界のディープネットワークに関する実践的な洞察を導いてきた。
2層ニューラルネットワークでは、トレーニングされたモデルの性質が初期ランダムウェイトの大きさによって根本的に変化することが理解されている。
この自明な振る舞いを避けるための様々な手法を提案し、その結果のダイナミクスを詳細に分析する。
論文 参考訳(メタデータ) (2021-10-29T07:53:35Z) - Physics informed neural networks for continuum micromechanics [68.8204255655161]
近年,応用数学や工学における多種多様な問題に対して,物理情報ニューラルネットワークの適用が成功している。
グローバルな近似のため、物理情報ニューラルネットワークは、最適化によって局所的な効果と強い非線形解を表示するのに困難である。
実世界の$mu$CT-Scansから得られた不均一構造における非線形応力, 変位, エネルギー場を, 正確に解くことができる。
論文 参考訳(メタデータ) (2021-10-14T14:05:19Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - The Surprising Simplicity of the Early-Time Learning Dynamics of Neural
Networks [43.860358308049044]
研究において、これらの共通認識は、学習の初期段階において完全に誤りであることを示す。
この驚くべき単純さは、畳み込みアーキテクチャを持つより多くのレイヤを持つネットワークで持続することができる、と私たちは主張する。
論文 参考訳(メタデータ) (2020-06-25T17:42:49Z) - An analytic theory of shallow networks dynamics for hinge loss
classification [14.323962459195771]
我々は、単純なタイプのニューラルネットワーク(分類タスクを実行するために訓練された単一の隠れ層)のトレーニングダイナミクスについて研究する。
我々はこの理論を線形分離可能なデータセットと線形ヒンジ損失のプロトタイプケースに特化する。
これにより、トレーニングダイナミクスの減速、リッチラーニングと遅延ラーニングのクロスオーバー、オーバーフィッティングといった、現代のネットワークに現れるいくつかの現象に対処することが可能になります。
論文 参考訳(メタデータ) (2020-06-19T16:25:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。