論文の概要: Non-Euclidean Universal Approximation
- arxiv url: http://arxiv.org/abs/2006.02341v3
- Date: Sat, 7 Nov 2020 15:40:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 17:10:32.533876
- Title: Non-Euclidean Universal Approximation
- Title(参考訳): 非ユークリッド普遍近似
- Authors: Anastasis Kratsios, Eugene Bilokopytov
- Abstract要約: ニューラルネットワークの入力層と出力層の修正は、多くの場合、最も実践的な学習タスクの特異性を満たすために必要である。
アーキテクチャの連続関数をコンパクトな上で一様に近似する能力を保った特徴写像と読み出し写像を記述した一般的な条件を示す。
- 参考スコア(独自算出の注目度): 4.18804572788063
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modifications to a neural network's input and output layers are often
required to accommodate the specificities of most practical learning tasks.
However, the impact of such changes on architecture's approximation
capabilities is largely not understood. We present general conditions
describing feature and readout maps that preserve an architecture's ability to
approximate any continuous functions uniformly on compacts. As an application,
we show that if an architecture is capable of universal approximation, then
modifying its final layer to produce binary values creates a new architecture
capable of deterministically approximating any classifier. In particular, we
obtain guarantees for deep CNNs and deep feed-forward networks. Our results
also have consequences within the scope of geometric deep learning.
Specifically, when the input and output spaces are Cartan-Hadamard manifolds,
we obtain geometrically meaningful feature and readout maps satisfying our
criteria. Consequently, commonly used non-Euclidean regression models between
spaces of symmetric positive definite matrices are extended to universal DNNs.
The same result allows us to show that the hyperbolic feed-forward networks,
used for hierarchical learning, are universal. Our result is also used to show
that the common practice of randomizing all but the last two layers of a DNN
produces a universal family of functions with probability one. We also provide
conditions on a DNN's first (resp. last) few layer's connections and activation
function which guarantee that these layers can have a width equal to the input
(resp. output) space's dimension while not negatively affecting the
architecture's approximation capabilities.
- Abstract(参考訳): ニューラルネットワークの入出力層の変更は、ほとんどの実用的な学習タスクの特異性に対応するためにしばしば必要となる。
しかし、そのような変化がアーキテクチャの近似能力に与える影響はほとんど理解されていない。
連続関数をコンパクトに近似するアーキテクチャの能力を保った特徴写像と読み出し写像を記述する一般的な条件を示す。
アプリケーションとして、アーキテクチャが普遍的な近似が可能な場合、最終層を変更してバイナリ値を生成すると、決定論的に分類器を近似できる新しいアーキテクチャが生成される。
特に,ディープcnnとディープフィードフォワードネットワークの保証を得る。
我々の結果は幾何学的深層学習の範囲内でも結果をもたらす。
具体的には、入力空間と出力空間がカルタン・アダマール多様体であるとき、我々の基準を満たす幾何学的に意味のある特徴と可読写像を得る。
したがって、対称正定値行列の空間の間の非ユークリッド回帰モデルは普遍dnnに拡張される。
同じ結果、階層学習に使用される双曲的フィードフォワードネットワークが普遍的であることを示すことができる。
また,DNNの最後の2層を除いてランダム化を行う一般的な手法は,確率 1 の関数群を普遍的に生成することを示した。
また、dnnの第1(resp. last)層の接続および活性化関数の条件を提供し、これらの層が入力(resp. output)空間の次元に等しい幅を持つことができることを保証し、アーキテクチャの近似能力に負の影響を及ぼさない。
関連論文リスト
- Information-Theoretic Generalization Bounds for Deep Neural Networks [22.87479366196215]
ディープニューラルネットワーク(DNN)は、実用的な応用において、非常に優れた一般化能力を示す。
本研究の目的は,情報理論の一般化境界による教師あり学習における深度の影響とメリットを捉えることである。
論文 参考訳(メタデータ) (2024-04-04T03:20:35Z) - On Characterizing the Evolution of Embedding Space of Neural Networks
using Algebraic Topology [9.537910170141467]
特徴埋め込み空間のトポロジがベッチ数を介してよく訓練されたディープニューラルネットワーク(DNN)の層を通過するとき、どのように変化するかを検討する。
深度が増加するにつれて、トポロジカルに複雑なデータセットが単純なデータセットに変換され、ベッチ数はその最小値に達することが示される。
論文 参考訳(メタデータ) (2023-11-08T10:45:12Z) - Deterministic equivalent and error universality of deep random features
learning [4.8461049669050915]
この問題は、広く研究されているランダム特徴モデルのより深いアーキテクチャへの自然な一般化と見なすことができる。
まず,学習者と対象ネットワークが同一の中間層を共有した普遍性リッジ設定において,テストエラーの普遍性を証明し,そのシャープな式を提供する。
第二に、任意の凸損失と一般的な学習/ターゲットアーキテクチャのより一般的な設定において、テストエラーの普遍性を予想する。
論文 参考訳(メタデータ) (2023-02-01T12:37:10Z) - What Can Be Learnt With Wide Convolutional Neural Networks? [69.55323565255631]
カーネルシステムにおける無限大の深層CNNについて検討する。
我々は,深部CNNが対象関数の空間スケールに適応していることを証明する。
我々は、別の深部CNNの出力に基づいて訓練された深部CNNの一般化誤差を計算して結論付ける。
論文 参考訳(メタデータ) (2022-08-01T17:19:32Z) - Universal approximation property of invertible neural networks [76.95927093274392]
Invertible Neural Network (INN) は、設計によって可逆性を持つニューラルネットワークアーキテクチャである。
その可逆性とヤコビアンのトラクタビリティのおかげで、IGNは確率的モデリング、生成的モデリング、表現的学習など、さまざまな機械学習応用がある。
論文 参考訳(メタデータ) (2022-04-15T10:45:26Z) - SPINE: Soft Piecewise Interpretable Neural Equations [0.0]
完全に接続されたネットワークはユビキタスだが解釈不能である。
本論文は,個々の部品に設定操作を施すことにより,ピースワイズに新しいアプローチを採っている(一部)。
完全に接続されたレイヤを解釈可能なレイヤに置き換えなければならない、さまざまなアプリケーションを見つけることができる。
論文 参考訳(メタデータ) (2021-11-20T16:18:00Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Dual-constrained Deep Semi-Supervised Coupled Factorization Network with
Enriched Prior [80.5637175255349]
本稿では、DS2CF-Netと呼ばれる、拡張された事前制約付きDual-Constrained Deep Semi-Supervised Coupled Factorization Networkを提案する。
隠れた深い特徴を抽出するために、DS2CF-Netは、深い構造と幾何学的な構造に制約のあるニューラルネットワークとしてモデル化される。
我々のネットワークは、表現学習とクラスタリングのための最先端の性能を得ることができる。
論文 参考訳(メタデータ) (2020-09-08T13:10:21Z) - A Functional Perspective on Learning Symmetric Functions with Neural
Networks [48.80300074254758]
本研究では,測定値に基づいて定義されたニューラルネットワークの学習と表現について検討する。
正規化の異なる選択の下で近似と一般化境界を確立する。
得られたモデルは効率よく学習でき、入力サイズにまたがる一般化保証を享受できる。
論文 参考訳(メタデータ) (2020-08-16T16:34:33Z) - When Residual Learning Meets Dense Aggregation: Rethinking the
Aggregation of Deep Neural Networks [57.0502745301132]
我々は,グローバルな残差学習と局所的なマイクロセンスアグリゲーションを備えた新しいアーキテクチャであるMicro-Dense Netsを提案する。
我々のマイクロセンスブロックはニューラルアーキテクチャ検索に基づくモデルと統合して性能を向上させることができる。
論文 参考訳(メタデータ) (2020-04-19T08:34:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。