論文の概要: Nonparametric Topological Layers in Neural Networks
- arxiv url: http://arxiv.org/abs/2111.14829v1
- Date: Sat, 27 Nov 2021 05:22:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-01 15:58:06.668544
- Title: Nonparametric Topological Layers in Neural Networks
- Title(参考訳): ニューラルネットワークにおける非パラメトリックトポロジカル層
- Authors: Dongfang Zhao
- Abstract要約: 本稿ではユークリッド空間を必要としないニューラルネットワークのための学習可能なトポロジ層を提案する。
この構成は、内積、すなわちヒルベルト空間を除いて、一般計量空間以上のものを必要としない。
- 参考スコア(独自算出の注目度): 1.6466634339167023
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Various topological techniques and tools have been applied to neural networks
in terms of network complexity, explainability, and performance. One
fundamental assumption of this line of research is the existence of a global
(Euclidean) coordinate system upon which the topological layer is constructed.
Despite promising results, such a \textit{topologization} method has yet to be
widely adopted because the parametrization of a topologization layer takes a
considerable amount of time and more importantly, lacks a theoretical
foundation without which the performance of the neural network only achieves
suboptimal performance. This paper proposes a learnable topological layer for
neural networks without requiring a Euclidean space; Instead, the proposed
construction requires nothing more than a general metric space except for an
inner product, i.e., a Hilbert space. Accordingly, the according
parametrization for the proposed topological layer is free of user-specified
hyperparameters, which precludes the costly parametrization stage and the
corresponding possibility of suboptimal networks.
- Abstract(参考訳): 様々なトポロジカルな技術やツールは、ネットワークの複雑さ、説明可能性、パフォーマンスの観点からニューラルネットワークに適用されている。
この研究の基本的な前提の一つは、位相層が構築される大域的(ユークリッド的)座標系の存在である。
有望な結果にもかかわらず、このような \textit{topologization} 法はまだ広く採用されていない。なぜなら、トポロライズ層のパラメトリゼーションにはかなりの時間を要するため、より重要なことに、ニューラルネットワークの性能が副最適性能しか達成できないという理論的基礎が欠如しているからだ。
本稿では、ユークリッド空間を必要としないニューラルネットワークのための学習可能なトポロジー層を提案する。
したがって、提案する位相層のパラメータは、コストのかかるパラメータ化段階と、それに対応するサブオプティマイズネットワークの可能性を妨げるユーザ特定ハイパーパラメータを含まない。
関連論文リスト
- Topological Expressivity of ReLU Neural Networks [0.0]
本稿では,2値分類問題の設定におけるReLUニューラルネットワークの表現性について,トポロジ的観点から検討する。
その結果、深部ReLUニューラルネットワークは、トポロジカル単純化の観点から、浅部よりも指数関数的に強力であることがわかった。
論文 参考訳(メタデータ) (2023-10-17T10:28:00Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - Data Topology-Dependent Upper Bounds of Neural Network Widths [52.58441144171022]
まず、3層ニューラルネットワークがコンパクトな集合上のインジケータ関数を近似するように設計可能であることを示す。
その後、これは単純複体へと拡張され、その位相構造に基づいて幅の上界が導かれる。
トポロジカルアプローチを用いて3層ReLUネットワークの普遍近似特性を証明した。
論文 参考訳(メタデータ) (2023-05-25T14:17:15Z) - Critical Initialization of Wide and Deep Neural Networks through Partial
Jacobians: General Theory and Applications [6.579523168465526]
ネットワークの固有ヤコビアン(enmphpartial Jacobians)を導入し、層$l$におけるプレアクティベーションの微分として定義し、層$l_0leq l$におけるプレアクティベーションについて述べる。
我々は,部分ジャコビアンのノルムに対する再帰関係を導出し,これらの関係を利用して,LayerNormおよび/または残留接続を用いたディープ・完全連結ニューラルネットワークの臨界度を解析する。
論文 参考訳(メタデータ) (2021-11-23T20:31:42Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - Neural Architecture Search as Sparse Supernet [78.09905626281046]
本稿では,単一パスと複数パスの探索から混合パスの自動探索へ,ニューラルネットワーク探索(NAS)の問題を拡大することを目的とする。
我々はNAS問題をスパース・スーパーネットとして,空間制約を混合した新しい連続アーキテクチャ表現を用いてモデル化する。
スパーススーパーネットは、コンパクトなノードセット上でスパース混合パスを自動的に達成する。
論文 参考訳(メタデータ) (2020-07-31T14:51:52Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Topological Insights into Sparse Neural Networks [16.515620374178535]
本稿では,グラフ理論の観点から,スパースニューラルネットワークトポロジの理解と比較を行うアプローチを提案する。
まず、異なるスパースニューラルネットワーク間の距離を測定するために、NNSTD(Neural Network Sparse Topology Distance)を提案する。
適応的なスパース接続は、高密度モデルよりも優れた非常に異なるトポロジを持つスパースサブネットワークを常に顕在化することができることを示す。
論文 参考訳(メタデータ) (2020-06-24T22:27:21Z) - Hyperbolic Neural Networks++ [66.16106727715061]
ニューラルネットワークの基本成分を1つの双曲幾何モデル、すなわちポアンカーの球モデルで一般化する。
実験により, 従来の双曲成分と比較してパラメータ効率が優れ, ユークリッド成分よりも安定性と性能が優れていた。
論文 参考訳(メタデータ) (2020-06-15T08:23:20Z) - NeuroFabric: Identifying Ideal Topologies for Training A Priori Sparse
Networks [2.398608007786179]
ディープニューラルネットワークの長いトレーニング時間は、機械学習研究のボトルネックである。
層内トポロジーの選択に関する理論的基礎を提供する。
類似したトポロジが達成可能な精度に大きな差があることがよく示される。
論文 参考訳(メタデータ) (2020-02-19T18:29:18Z) - Neural Network Tomography [4.407668482702675]
ネットワークトモグラフィーはネットワーク監視の領域における古典的な研究課題である。
NeuTomographyは、未測定のパフォーマンス指標を予測するために、ディープニューラルネットワークとデータ拡張を利用する。
NeuTomographyは、元のネットワークトポロジを再構築するために使用できる。
論文 参考訳(メタデータ) (2020-01-09T12:19:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。