論文の概要: Simple Analysis of Johnson-Lindenstrauss Transform under Neuroscience
Constraints
- arxiv url: http://arxiv.org/abs/2008.08857v1
- Date: Thu, 20 Aug 2020 09:31:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 04:23:01.561698
- Title: Simple Analysis of Johnson-Lindenstrauss Transform under Neuroscience
Constraints
- Title(参考訳): 神経科学制約下におけるJohnson-Lindenstrauss変換の簡易解析
- Authors: Maciej Skorski
- Abstract要約: この論文は、ジョンソン=リンデンシュトラウス・レムマ(Johnson-Lindenstrauss Lemma)の有名なバージョンを再分析している。
この作品の貢献は、新しい証明である。
- 参考スコア(独自算出の注目度): 2.28438857884398
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The paper re-analyzes a version of the celebrated Johnson-Lindenstrauss
Lemma, in which matrices are subjected to constraints that naturally emerge
from neuroscience applications: a) sparsity and b) sign-consistency. This
particular variant was studied first by Allen-Zhu, Gelashvili, Micali, Shavit
and more recently by Jagadeesan (RANDOM'19).
The contribution of this work is a novel proof, which in contrast to previous
works a) uses the modern probability toolkit, particularly basics of
sub-gaussian and sub-gamma estimates b) is self-contained, with no dependencies
on subtle third-party results c) offers explicit constants.
At the heart of our proof is a novel variant of Hanson-Wright Lemma (on
concentration of quadratic forms). Of independent interest are also auxiliary
facts on sub-gaussian random variables.
- Abstract(参考訳): 論文は、有名なjohnson-lindenstrauss lemmaのバージョンを再分析し、行列は神経科学の応用から自然に生じる制約を受ける。
sparsity (複数形 sparsities)
b) 署名整合性
この変種はまずallen-zhu、gelashvili、micali、shavit、そして最近ではjagadeesan (random'19)によって研究された。
この作品の貢献は、以前の作品とは対照的に、新しい証明である
a)現代的な確率ツールキット、特にサブゲージとサブガンマ推定の基本を用いる
b) 自己完結であり、微妙な第三者結果に依存しない
c) 明示定数を提供する。
我々の証明の核心はハンソン・ライト・レムマ(二次形式の濃度)の新しい変種である。
独立な利害関係は、亜ガウス確率変数の補助的事実でもある。
関連論文リスト
- Characterizing Overfitting in Kernel Ridgeless Regression Through the Eigenspectrum [6.749750044497731]
我々は、ガウス以下の設計仮定の下で、誘惑的な過フィットと破滅的な過フィットの現象を証明した。
また、機能の独立性は、誘惑に満ちたオーバーフィッティングを保証する上で重要な役割を担っていることも確認しています。
論文 参考訳(メタデータ) (2024-02-02T10:36:53Z) - Ito Diffusion Approximation of Universal Ito Chains for Sampling, Optimization and Boosting [64.0722630873758]
我々は、ある微分方程式のオイラー・マルヤマ離散化のように見える、より一般で幅広いマルコフ連鎖、伊藤鎖を考える。
伊藤鎖の法則と微分方程式の間の$W_2$-距離の有界性を証明する。
論文 参考訳(メタデータ) (2023-10-09T18:38:56Z) - Exact Non-Oblivious Performance of Rademacher Random Embeddings [79.28094304325116]
本稿では,Rademacherランダムプロジェクションの性能を再検討する。
入力データに関して数値的に鋭く、曖昧でない新しい統計的保証を確立する。
論文 参考訳(メタデータ) (2023-03-21T11:45:27Z) - A note on the smallest eigenvalue of the empirical covariance of causal
Gaussian processes [1.223779595809275]
因果ガウス過程における経験的共分散の最小固有値の有界性を示す。
因果分解を用いたガウス二次形式に対して一方的な尾不等式を確立する。
論文 参考訳(メタデータ) (2022-12-19T14:44:37Z) - Clipped Stochastic Methods for Variational Inequalities with
Heavy-Tailed Noise [64.85879194013407]
単調なVIPと非単調なVIPの解法における信頼度に対数的依存を持つ最初の高確率結果が証明された。
この結果は光尾の場合で最もよく知られたものと一致し,非単調な構造問題に新鮮である。
さらに,多くの実用的な定式化の勾配雑音が重く,クリッピングによりSEG/SGDAの性能が向上することを示す。
論文 参考訳(メタデータ) (2022-06-02T15:21:55Z) - Optimization Variance: Exploring Generalization Properties of DNNs [83.78477167211315]
ディープニューラルネットワーク(DNN)のテストエラーは、しばしば二重降下を示す。
そこで本研究では,モデル更新の多様性を測定するために,新しい測度である最適化分散(OV)を提案する。
論文 参考訳(メタデータ) (2021-06-03T09:34:17Z) - Learning a Single Neuron with Bias Using Gradient Descent [53.15475693468925]
単一ニューロンをバイアス項で学習する基本的な問題について検討する。
これはバイアスのないケースとは大きく異なり、より難しい問題であることを示す。
論文 参考訳(メタデータ) (2021-06-02T12:09:55Z) - Binary Classification of Gaussian Mixtures: Abundance of Support
Vectors, Benign Overfitting and Regularization [39.35822033674126]
生成ガウス混合モデルに基づく二項線形分類について検討する。
後者の分類誤差に関する新しい非漸近境界を導出する。
この結果は, 確率が一定である雑音モデルに拡張される。
論文 参考訳(メタデータ) (2020-11-18T07:59:55Z) - Approximation Schemes for ReLU Regression [80.33702497406632]
我々はReLU回帰の根本的な問題を考察する。
目的は、未知の分布から引き出された2乗損失に対して、最も適したReLUを出力することである。
論文 参考訳(メタデータ) (2020-05-26T16:26:17Z) - Learning a Single Neuron with Gradient Methods [39.291483556116454]
単一ニューロン$xmaptosigma(wtop x)$を標準勾配法で学習する根本的な問題を考える。
より一般的な結果が、より穏やかな仮定の下で達成可能かどうかを問う。
論文 参考訳(メタデータ) (2020-01-15T10:02:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。