論文の概要: Kernel based analysis of massive data
- arxiv url: http://arxiv.org/abs/2003.13226v2
- Date: Tue, 7 Jul 2020 05:33:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 06:42:01.954080
- Title: Kernel based analysis of massive data
- Title(参考訳): 大規模データのカーネルベース解析
- Authors: Hrushikesh N Mhaskar
- Abstract要約: そこで我々は,ネットワークによる近似理論を開発し,局所的に階層化された近似を実現する。
データの巨大な性質により、逆問題を解決するためにこれらのイグネットを使用することができます。
我々は、近似にデータベースのトレーニングを必要としないように、プレハブネットワークを構築している。
- 参考スコア(独自算出の注目度): 0.45687771576879593
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dealing with massive data is a challenging task for machine learning. An
important aspect of machine learning is function approximation. In the context
of massive data, some of the commonly used tools for this purpose are sparsity,
divide-and-conquer, and distributed learning. In this paper, we develop a very
general theory of approximation by networks, which we have called eignets, to
achieve local, stratified approximation. The very massive nature of the data
allows us to use these eignets to solve inverse problems such as finding a good
approximation to the probability law that governs the data, and finding the
local smoothness of the target function near different points in the domain. In
fact, we develop a wavelet-like representation using our eignets. Our theory is
applicable to approximation on a general locally compact metric measure space.
Special examples include approximation by periodic basis functions on the
torus, zonal function networks on a Euclidean sphere (including smooth ReLU
networks), Gaussian networks, and approximation on manifolds. We construct
pre-fabricated networks so that no data-based training is required for the
approximation.
- Abstract(参考訳): 大量のデータを扱うことは、機械学習にとって難しい課題だ。
機械学習の重要な側面は関数近似である。
大規模データのコンテキストにおいて、この目的のために一般的に使用されるツールは、疎性、分割・分散学習である。
本稿では,局所的に階層化された近似を実現するために,ネットワークによる近似の非常に一般的な理論を開発する。
データの非常に大きな性質は、データを管理する確率法則の適切な近似を見つけることや、領域内の異なる点付近で対象関数の局所的滑らかさを見つけることなどの逆問題にこれらのイグネットを使うことができる。
実際,固有文字を用いたウェーブレット型表現を開発した。
我々の理論は、一般局所コンパクト計量測度空間上の近似に適用できる。
特別な例として、トーラス上の周期基底関数による近似、ユークリッド球面上のゾナル関数ネットワーク(滑らかなルルネットワークを含む)、ガウスネットワーク、多様体上の近似などがある。
近似値にデータベーストレーニングを必要とせず,事前構築したネットワークを構築する。
関連論文リスト
- Learning Regularities from Data using Spiking Functions: A Theory [1.3735277588793995]
我々は,正則性の定義を数学で定義する新しい機械学習理論を提案する。
発見された非ランダム性は、関数が十分単純であれば正則性に符号化される。
この過程において、最適なスパイク関数である「ベスト」正則性は、最も多くの情報を取得することができるものであると主張する。
論文 参考訳(メタデータ) (2024-05-19T22:04:11Z) - Learning on manifolds without manifold learning [0.0]
未知分布からランダムに描画されたデータに基づく関数近似は、機械学習において重要な問題である。
本稿では,未知多様体を部分多様体の周囲超球面として投影し,超球面上に特別に設計されたカーネルを用いてワンショット近似を構築する問題について考察する。
論文 参考訳(メタデータ) (2024-02-20T03:27:53Z) - SMaRt: Improving GANs with Score Matching Regularity [94.81046452865583]
生成的敵ネットワーク(GAN)は通常、基礎となる多様体が複雑である非常に多様なデータから学ぶのに苦労する。
スコアマッチングは、生成したデータポイントを実データ多様体へ持続的にプッシュする能力のおかげで、この問題に対する有望な解決策であることを示す。
スコアマッチング規則性(SMaRt)を用いたGANの最適化を提案する。
論文 参考訳(メタデータ) (2023-11-30T03:05:14Z) - Provable Data Subset Selection For Efficient Neural Network Training [73.34254513162898]
本稿では,任意の放射基底関数ネットワーク上での入力データの損失を近似する,emphRBFNNのコアセットを構成するアルゴリズムについて紹介する。
次に、一般的なネットワークアーキテクチャやデータセット上で、関数近似とデータセットサブセットの選択に関する経験的評価を行う。
論文 参考訳(メタデータ) (2023-03-09T10:08:34Z) - Efficient Parametric Approximations of Neural Network Function Space
Distance [6.117371161379209]
モデルパラメータとトレーニングデータの重要な特性をコンパクトに要約して、データセット全体を保存または/または反復することなく後で使用できるようにすることが、しばしば有用である。
我々は,FSD(Function Space Distance)をトレーニングセット上で推定することを検討する。
本稿では、線形化活性化TRick (LAFTR) を提案し、ReLUニューラルネットワークに対するFSDの効率的な近似を導出する。
論文 参考訳(メタデータ) (2023-02-07T15:09:23Z) - A Theoretical View on Sparsely Activated Networks [21.156069843782017]
本稿では、一般的なアーキテクチャの健全な側面を捉えるデータ依存スパースネットワークの形式モデルを提案する。
次に、LSH(Locality sensitive hashing)に基づくルーティング関数を導入し、スパースネットワークがターゲット関数をどの程度うまく近似するかを判断する。
スパースネットワークはリプシッツ関数上の高密度ネットワークの近似力と一致することが証明できる。
論文 参考訳(メタデータ) (2022-08-08T23:14:48Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Deep Archimedean Copulas [98.96141706464425]
ACNetは、構造的特性を強制する、新しい差別化可能なニューラルネットワークアーキテクチャである。
我々は、ACNetが共通のアルキメデスコピュラスを近似し、データに適合する可能性のある新しいコプラを生成することができることを示した。
論文 参考訳(メタデータ) (2020-12-05T22:58:37Z) - A Point-Cloud Deep Learning Framework for Prediction of Fluid Flow
Fields on Irregular Geometries [62.28265459308354]
ネットワークは空間位置とCFD量のエンドツーエンドマッピングを学習する。
断面形状の異なるシリンダーを過ぎる非圧縮層状定常流を考察する。
ネットワークは従来のCFDの数百倍の速さで流れ場を予測する。
論文 参考訳(メタデータ) (2020-10-15T12:15:02Z) - Graph Embedding with Data Uncertainty [113.39838145450007]
スペクトルベースのサブスペース学習は、多くの機械学習パイプラインにおいて、一般的なデータ前処理ステップである。
ほとんどの部分空間学習法は、不確実性の高いデータにつながる可能性のある測定の不正確さやアーティファクトを考慮していない。
論文 参考訳(メタデータ) (2020-09-01T15:08:23Z) - Distributed Learning via Filtered Hyperinterpolation on Manifolds [2.2046162792653017]
本稿では,実数値関数を多様体上で学習する問題について検討する。
大規模なデータセットを扱うという問題に触発され、並列データ処理アプローチが提示される。
学習関数の近似品質と多様体全体の量的関係を証明した。
論文 参考訳(メタデータ) (2020-07-18T10:05:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。