論文の概要: $k$-Variance: A Clustered Notion of Variance
- arxiv url: http://arxiv.org/abs/2012.06958v1
- Date: Sun, 13 Dec 2020 04:25:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-09 12:47:35.896407
- Title: $k$-Variance: A Clustered Notion of Variance
- Title(参考訳): k$-variance:分散というクラスタ化された概念
- Authors: Justin Solomon, Kristjan Greenewald, Haikady N. Nagaraja
- Abstract要約: 我々は,ランダム二成分マッチングの機構に基づく分散の一般化である $k$-variance を導入する。
1次元測度、クラスター測度、低次元部分集合に集中した測度など、いくつかの重要な場合において、この量の詳細分析を行う。
- 参考スコア(独自算出の注目度): 23.57925128327
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce $k$-variance, a generalization of variance built on the
machinery of random bipartite matchings. $K$-variance measures the expected
cost of matching two sets of $k$ samples from a distribution to each other,
capturing local rather than global information about a measure as $k$
increases; it is easily approximated stochastically using sampling and linear
programming. In addition to defining $k$-variance and proving its basic
properties, we provide in-depth analysis of this quantity in several key cases,
including one-dimensional measures, clustered measures, and measures
concentrated on low-dimensional subsets of $\mathbb R^n$. We conclude with
experiments and open problems motivated by this new way to summarize
distributional shape.
- Abstract(参考訳): 我々は,ランダム二成分マッチングの機構に基づく分散の一般化である $k$-variance を導入する。
$K$-varianceは、分布から互いに2組の$k$サンプルをマッチングし、その値に関するグローバルな情報ではなく局所的な情報を、$k$の増加として取得する、という期待のコストを測定する。
k$分散の定義と基本的な性質の証明に加えて、一次元測度、クラスター測度、および$\mathbb r^n$ の低次元部分集合に集中した測度を含むいくつかの重要なケースで、この量の詳細分析を行う。
分布形状を要約する新しい方法によって動機づけられた実験とオープン問題で締めくくった。
関連論文リスト
- Data Structures for Density Estimation [66.36971978162461]
p$のサブリニア数($n$)が与えられた場合、主な結果は$k$のサブリニアで$v_i$を識別する最初のデータ構造になります。
また、Acharyaなどのアルゴリズムの改良版も提供します。
論文 参考訳(メタデータ) (2023-06-20T06:13:56Z) - Stochastic Approximation Approaches to Group Distributionally Robust Optimization and Beyond [89.72693227960274]
本稿では,グループ分散ロバスト最適化 (GDRO) を,$m$以上の異なる分布をうまく処理するモデルを学習する目的で検討する。
各ラウンドのサンプル数を$m$から1に抑えるため、GDROを2人でプレイするゲームとして、一方のプレイヤーが実行し、他方のプレイヤーが非公開のマルチアームバンディットのオンラインアルゴリズムを実行する。
第2のシナリオでは、最大リスクではなく、平均的最上位k$リスクを最適化し、分散の影響を軽減することを提案する。
論文 参考訳(メタデータ) (2023-02-18T09:24:15Z) - On counterfactual inference with unobserved confounding [36.18241676876348]
独立だが不均一な単位を持つ観測的研究を前提として、各単位の反実分布を学習することが目的である。
我々は、すべての$n$サンプルをプールして、すべての$n$パラメータベクトルを共同で学習する凸目的を導入する。
対数的ソボレフ不等式を満たすためにコンパクトに支持された分布に対して十分な条件を導出する。
論文 参考訳(メタデータ) (2022-11-14T04:14:37Z) - Information Processing Equalities and the Information-Risk Bridge [10.451984251615512]
本稿では,統計実験のための2つの新しい情報尺度について紹介する。
我々は,情報量測定と統計的決定問題のベイズリスクとの簡単な幾何学的関係を導出する。
論文 参考訳(メタデータ) (2022-07-25T08:54:36Z) - A Unified Framework for Multi-distribution Density Ratio Estimation [101.67420298343512]
バイナリ密度比推定(DRE)は多くの最先端の機械学習アルゴリズムの基礎を提供する。
ブレグマン最小化の発散の観点から一般的な枠組みを開発する。
我々のフレームワークはバイナリDREでそれらのフレームワークを厳格に一般化する手法に導かれることを示す。
論文 参考訳(メタデータ) (2021-12-07T01:23:20Z) - Learning Gaussian Mixtures with Generalised Linear Models: Precise
Asymptotics in High-dimensions [79.35722941720734]
多クラス分類問題に対する一般化線形モデルは、現代の機械学習タスクの基本的な構成要素の1つである。
実験的リスク最小化による高次元推定器の精度を実証する。
合成データの範囲を超えて我々の理論をどのように適用できるかを論じる。
論文 参考訳(メタデータ) (2021-06-07T16:53:56Z) - On learning parametric distributions from quantized samples [14.924672048447338]
ネットワーク内の量子化サンプルからパラメトリック分布を学習する問題を考察する。
具体的には、$n$エージェントまたはセンサーが未知のパラメトリック分布の独立したサンプルを観察し、それぞれが、観察されたサンプルを中央プロセッサに記述するために$k$ビットを使用する。
一般の$L_p$-normsと関連するワッサーシュタイン損失の2つの損失に対する推定誤差の最小値を求める。
論文 参考訳(メタデータ) (2021-05-25T15:38:28Z) - Optimal Sub-Gaussian Mean Estimation in $\mathbb{R}$ [5.457150493905064]
ガウス下収束を考慮した新しい推定器を提案する。
我々の推定器はその分散に関する事前の知識を必要としない。
我々の推定器の構成と分析は、他の問題に一般化可能なフレームワークを提供する。
論文 参考訳(メタデータ) (2020-11-17T02:47:24Z) - Sample Complexity of Asynchronous Q-Learning: Sharper Analysis and
Variance Reduction [63.41789556777387]
非同期Q-ラーニングはマルコフ決定過程(MDP)の最適行動値関数(またはQ-関数)を学習することを目的としている。
Q-関数の入出力$varepsilon$-正確な推定に必要なサンプルの数は、少なくとも$frac1mu_min (1-gamma)5varepsilon2+ fract_mixmu_min (1-gamma)$の順である。
論文 参考訳(メタデータ) (2020-06-04T17:51:00Z) - Outlier-Robust Clustering of Non-Spherical Mixtures [5.863264019032882]
統計的に分離されたd-次元ガウスアン(k-GMM)の混合をクラスタリングするための最初のアウトリー・ローバストアルゴリズムを与える。
この結果は、$d$次元単位球面上の均一分布の任意のアフィン変換のクラスタリング混合に拡張される。
論文 参考訳(メタデータ) (2020-05-06T17:24:27Z) - Algebraic and Analytic Approaches for Parameter Learning in Mixture
Models [66.96778152993858]
1次元の混合モデルにおけるパラメータ学習のための2つの異なるアプローチを提案する。
これらの分布のいくつかについては、パラメータ推定の最初の保証を示す。
論文 参考訳(メタデータ) (2020-01-19T05:10:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。