論文の概要: Some compact notations for concentration inequalities and user-friendly
results
- arxiv url: http://arxiv.org/abs/1912.13463v2
- Date: Sun, 26 Apr 2020 17:57:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 20:41:56.944252
- Title: Some compact notations for concentration inequalities and user-friendly
results
- Title(参考訳): 濃度不等式に対するコンパクト表記法とユーザフレンドリーな結果
- Authors: Kaizheng Wang
- Abstract要約: 新しい表現は、変数の典型的なサイズとテールを記述する。
彼らは古典的な表記法を橋渡しし、現代の非漸近的な尾を一緒に結ぶ。
- 参考スコア(独自算出の注目度): 2.7920304852537536
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents compact notations for concentration inequalities and
convenient results to streamline probabilistic analysis. The new expressions
describe the typical sizes and tails of random variables, allowing for simple
operations without heavy use of inessential constants. They bridge classical
asymptotic notations and modern non-asymptotic tail bounds together. Examples
of different kinds demonstrate their efficacy.
- Abstract(参考訳): 本稿では, 濃度不等式に対するコンパクトな表記法と, 流線型確率解析に有用であることを示す。
新しい式は、ランダム変数の典型的なサイズとテールを記述し、インセンティブ定数を多用することなく単純な操作を可能にする。
古典的漸近的表記法と現代の非漸近的末尾境界を一緒に橋渡しする。
様々な種類の例が有効性を示している。
関連論文リスト
- A covariance representation and an elementary proof of the Gaussian concentration inequality [0.0]
特徴関数に基づく共分散表現を用いて、ガウス濃度の不等式に関する既知の初等証明を示す。
他にもいくつかのアプリケーションが紹介されている。
論文 参考訳(メタデータ) (2024-10-09T14:30:55Z) - A Heavy-Tailed Algebra for Probabilistic Programming [53.32246823168763]
本稿では,確率変数の尾を解析するための体系的アプローチを提案する。
本稿では,確率型プログラミング言語コンパイラの静的解析(サンプル作成前)において,この手法をどのように利用できるかを示す。
実験結果から,重み付き代数を利用する推論アルゴリズムは,多数の密度モデリングおよび変分推論タスクにおいて優れた性能が得られることを確認した。
論文 参考訳(メタデータ) (2023-06-15T16:37:36Z) - Learning Linear Causal Representations from Interventions under General
Nonlinear Mixing [52.66151568785088]
介入対象にアクセスできることなく、未知の単一ノード介入を考慮し、強い識別可能性を示す。
これは、ディープニューラルネットワークの埋め込みに対する非ペアの介入による因果識別性の最初の例である。
論文 参考訳(メタデータ) (2023-06-04T02:32:12Z) - A Measure-Theoretic Characterization of Tight Language Models [105.16477132329416]
病理学的には「確率質量」が無限列の集合に漏れることがある。
本稿では,言語モデリングの尺度論的扱いについて述べる。
多くのポピュラーな言語モデルファミリーが実際に密接な関係にあることを証明しています。
論文 参考訳(メタデータ) (2022-12-20T18:17:11Z) - Instance-Dependent Generalization Bounds via Optimal Transport [51.71650746285469]
既存の一般化境界は、現代のニューラルネットワークの一般化を促進する重要な要因を説明することができない。
データ空間における学習予測関数の局所リプシッツ正則性に依存するインスタンス依存の一般化境界を導出する。
ニューラルネットワークに対する一般化境界を実験的に解析し、有界値が有意義であることを示し、トレーニング中の一般的な正規化方法の効果を捉える。
論文 参考訳(メタデータ) (2022-11-02T16:39:42Z) - Correlation between Alignment-Uniformity and Performance of Dense
Contrastive Representations [11.266613717084788]
我々は,標準CNNと簡単な特徴マッチング方式を用いて,高密度コントラスト学習の理論的アイデアを分析する。
正の高密度な特徴のペアを構築する際の基本原理を発見し、その妥当性を実証的に証明した。
また、アライメント・アンド・ユニフォーム性と下流性能の相関関係を要約した新しいスカラー計量を導入する。
論文 参考訳(メタデータ) (2022-10-17T08:08:37Z) - On the Normalizing Constant of the Continuous Categorical Distribution [24.015934908123928]
そのような分布の新しい族が発見されており、連続的な分類である。
この数学的単純さにもかかわらず、正規化定数に対する我々の理解は完全とは程遠いままである。
我々は、連続的なカテゴリー分布のより広い適用を可能にする理論的および方法論的な進歩を提示する。
論文 参考訳(メタデータ) (2022-04-28T05:06:12Z) - Generic aspects of the resource theory of quantum coherence [0.0]
2つの$n$-次元純状態が自然一様分布に従って独立に選択された場合、それらの状態が$nrightarrowinfty$に匹敵する確率が証明される。
また、非コヒーレント変換の最大成功確率について検討し、その大きな$n$分布の明示的な公式を求める。
論文 参考訳(メタデータ) (2020-10-13T16:38:52Z) - Learning Probabilistic Sentence Representations from Paraphrases [47.528336088976744]
文の分布を生成する確率モデルを定義する。
パラフレーズでモデルをトレーニングし、それらが自然に文の特異性を捉えていることを示す。
本モデルでは,各単語の明瞭度と正確度を抽出する手法を提案する。
論文 参考訳(メタデータ) (2020-05-16T21:10:28Z) - Convex Representation Learning for Generalized Invariance in
Semi-Inner-Product Space [32.442549424823355]
本研究では, 半ノルムにおける多種多様な一般化表現のアルゴリズムを開発し, 先頭の表現子を定式化し, 境界を定式化する。
これにより、正確な予測とともに、我々の実験で確認されているように、表現を効率的かつ効果的に学習することができる。
論文 参考訳(メタデータ) (2020-04-25T18:54:37Z) - Asymptotic Analysis of an Ensemble of Randomly Projected Linear
Discriminants [94.46276668068327]
[1]では、ランダムに投影された線形判別式のアンサンブルを用いてデータセットを分類する。
我々は,計算コストのかかるクロスバリデーション推定器の代替として,誤分類確率の一貫した推定器を開発する。
また、実データと合成データの両方で投影次元を調整するための推定器の使用を実証する。
論文 参考訳(メタデータ) (2020-04-17T12:47:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。