論文の概要: A Note on the Representation Power of GHHs
- arxiv url: http://arxiv.org/abs/2101.11286v1
- Date: Wed, 27 Jan 2021 09:46:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-01 22:11:52.874267
- Title: A Note on the Representation Power of GHHs
- Title(参考訳): GHHの表現力に関する一考察
- Authors: Zhou Lu
- Abstract要約: 一般化されたヒンキング超平面のネストされた絶対値関数のネスト数に対して、鋭い下界を証明した。
また、一層ニューラルネットワークはドメイン全体に対して普遍的な近似能力を持っていないことも示しています。
- 参考スコア(独自算出の注目度): 2.512827436728378
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this note we prove a sharp lower bound on the necessary number of nestings
of nested absolute-value functions of generalized hinging hyperplanes (GHH) to
represent arbitrary CPWL functions. Previous upper bound states that $n+1$
nestings is sufficient for GHH to achieve universal representation power, but
the corresponding lower bound was unknown. We prove that $n$ nestings is
necessary for universal representation power, which provides an almost tight
lower bound. We also show that one-hidden-layer neural networks don't have
universal approximation power over the whole domain. The analysis is based on a
key lemma showing that any finite sum of periodic functions is either
non-integrable or the zero function, which might be of independent interest.
- Abstract(参考訳): このノートでは、任意のCPWL関数を表すために、一般化ヒンジ超平面(GHH)のネストされた絶対値関数のネスティングの必要な数に鋭い下限があることを証明します。
以前は、$n+1$ネスティングはGHHが普遍的な表現力を達成するのに十分であるが、対応する下限は不明である。
我々は、$n$ネスティングが普遍表現力のために必要であることを証明する。
また,一層ニューラルネットワークは領域全体に普遍的な近似パワーを持たないことを示した。
この解析は、周期関数の任意の有限和が非可積分であるか、あるいは独立な興味を持つゼロ函数であるかを示すキー補題に基づいている。
関連論文リスト
- Universal approximation results for neural networks with non-polynomial activation function over non-compact domains [3.3379026542599934]
ユークリッド空間の非コンパクト部分集合上の関数空間内のニューラルネットワークに対する普遍近似結果を導出する。
非ポリノミカルアクティベーション関数を持つニューラルネットワークにより、十分に正規かつ可積分なフーリエ変換を持つ関数を近似するための次元非依存の速度を提供する。
論文 参考訳(メタデータ) (2024-10-18T09:53:20Z) - Some new considerations about the $ν$-function [0.0]
連続スペクトルを持つ量子系に対する一般化された超幾何コヒーレント状態の正規化関数として$nu$-関数が働くことを示す。
私たちの知る限りでは、私たちによって得られた結果は文学には現れない。
論文 参考訳(メタデータ) (2024-09-09T10:08:17Z) - $\widetilde{O}(N^2)$ Representation of General Continuous Anti-symmetric
Function [41.1983944775617]
量子力学において、多体電子系のようなフェルミオン系の波動関数は反対称で連続である。
我々は、我々のアンサッツが任意のAS連続関数を表現できることを証明し、Hutterによって提案された行列式に基づく構造を適合させることができる。
論文 参考訳(メタデータ) (2024-02-23T07:59:41Z) - Structure of universal formulas [13.794391803767617]
本稿では,大域近似特性と無限VC次元の弱い性質を結合するクラス階層を導入する。
活性化するニューロンの層が1つ以上ある固定サイズニューラルネットワークは任意の有限集合上の関数を近似できないことを示す。
任意の有限集合上の関数を近似する2層ニューラルネットワークを含む関数族を例に挙げるが、定義領域全体においてそれを行うことができない。
論文 参考訳(メタデータ) (2023-11-07T11:50:25Z) - Noncommutative extensions of parameters in the asymptotic spectrum of
graphs [0.0]
任意の函数は、類似した性質を持つ非可換グラフへの無数の拡張を持つか、あるいはそのような拡張を全く持たないことを示す。
特に、Lov'asz数に対する許容指数の集合、射影階数、複素数上で有界な分数Haemerは極大である。
論文 参考訳(メタデータ) (2022-07-21T13:55:12Z) - Provable General Function Class Representation Learning in Multitask
Bandits and MDPs [58.624124220900306]
マルチタスク表現学習は、サンプル効率を高めるために強化学習において一般的なアプローチである。
本研究では,解析結果を一般関数クラス表現に拡張する。
バンディットと線形MDPの一般関数クラスにおけるマルチタスク表現学習の利点を理論的に検証する。
論文 参考訳(メタデータ) (2022-05-31T11:36:42Z) - Deep neural network approximation of analytic functions [91.3755431537592]
ニューラルネットワークの空間に エントロピーバウンド 片方向の線形活性化関数を持つ
我々は、ペナル化深部ニューラルネットワーク推定器の予測誤差に対するオラクルの不等式を導出する。
論文 参考訳(メタデータ) (2021-04-05T18:02:04Z) - Finding Global Minima via Kernel Approximations [90.42048080064849]
関数評価のみに基づく滑らかな関数のグローバル最小化を考える。
本稿では,近似関数を共同でモデル化し,大域的最小値を求める手法を検討する。
論文 参考訳(メタデータ) (2020-12-22T12:59:30Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - Coupling-based Invertible Neural Networks Are Universal Diffeomorphism
Approximators [72.62940905965267]
結合フロー(CF-INN)に基づく可逆ニューラルネットワークは、画像合成や表現学習など、さまざまな機械学習応用を有する。
CF-INNは可逆関数に対する普遍近似器か?
我々は、ある微分同相類に対する普遍性の同値性を示す一般的な定理を証明する。
論文 参考訳(メタデータ) (2020-06-20T02:07:37Z) - Minimum Width for Universal Approximation [91.02689252671291]
我々は、$Lp$関数の普遍近似に必要な最小幅がちょうど$maxd_x+1,d_y$であることを証明する。
また、同じ結論がReLUと一様近似に当てはまるのではなく、追加のしきい値アクティベーション関数で成り立つことを証明している。
論文 参考訳(メタデータ) (2020-06-16T01:24:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。