論文の概要: Affine-Invariant Integrated Rank-Weighted Depth: Definition, Properties
and Finite Sample Analysis
- arxiv url: http://arxiv.org/abs/2106.11068v1
- Date: Mon, 21 Jun 2021 12:53:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-22 15:51:40.905814
- Title: Affine-Invariant Integrated Rank-Weighted Depth: Definition, Properties
and Finite Sample Analysis
- Title(参考訳): Affine-invariant Integrated Rank-Weighted Depth: Definition, Properties and Finite Sample Analysis
- Authors: Guillaume Staerman, Pavlo Mozharovskyi, St\'ephan Cl\'emen\c{c}on
- Abstract要約: そこで,本論文では,本論文で最初に紹介されたテキスト統合されたランク重み付き統計深度(IRW深度)の拡張について述べる。
私たちが提案する変種は、Affine-Invariant IRW depth (AI-IRW、略してAI-IRW)と呼ばれ、研究中の$d$次元ランダムベクトル$X$の共分散/精度行列を含む。
- 参考スコア(独自算出の注目度): 1.2891210250935146
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Because it determines a center-outward ordering of observations in
$\mathbb{R}^d$ with $d\geq 2$, the concept of statistical depth permits to
define quantiles and ranks for multivariate data and use them for various
statistical tasks (\textit{e.g.} inference, hypothesis testing). Whereas many
depth functions have been proposed \textit{ad-hoc} in the literature since the
seminal contribution of \cite{Tukey75}, not all of them possess the properties
desirable to emulate the notion of quantile function for univariate probability
distributions. In this paper, we propose an extension of the \textit{integrated
rank-weighted} statistical depth (IRW depth in abbreviated form) originally
introduced in \cite{IRW}, modified in order to satisfy the property of
\textit{affine-invariance}, fulfilling thus all the four key axioms listed in
the nomenclature elaborated by \cite{ZuoS00a}. The variant we propose, referred
to as the Affine-Invariant IRW depth (AI-IRW in short), involves the
covariance/precision matrices of the (supposedly square integrable)
$d$-dimensional random vector $X$ under study, in order to take into account
the directions along which $X$ is most variable to assign a depth value to any
point $x\in \mathbb{R}^d$. The accuracy of the sampling version of the AI-IRW
depth is investigated from a nonasymptotic perspective. Namely, a concentration
result for the statistical counterpart of the AI-IRW depth is proved. Beyond
the theoretical analysis carried out, applications to anomaly detection are
considered and numerical results are displayed, providing strong empirical
evidence of the relevance of the depth function we propose here.
- Abstract(参考訳): 統計深度の概念は、$\mathbb{R}^d$と$d\geq 2$の観測の中心的な順序を決定するので、多変量データの量子とランクを定義し、様々な統計的なタスクにそれらを使用することができる(\textit{e.g})。
推論、仮説検証)。
多くの奥行き関数は、論文において \cite{tukey75} の独創的寄与から提案されているのに対し、それらのすべてが不定値確率分布に対する分位関数の概念をエミュレートするのに望ましい性質を持っているわけではない。
本稿では、もともと \cite{IRW} で導入された \textit{integrated rank-weighted} statistics depth (IRW depth in Short form) の拡張を提案し、これにより、 \cite{ZuoS00a} で詳述された命名法に列挙された4つの鍵公理を全て満たす。
Affine-Invariant IRW depth (AI-IRW, 略してAI-IRW) と呼ばれる変種は、任意の点 $x\in \mathbb{R}^d$ に深さ値を与えるのに$X$が最も可変な方向を考慮に入れ、研究中の$d$次元ランダムベクトル $X$ の共分散/精度行列を含む。
このAI-IRW深度のサンプリング版の精度を漸近的観点から検討した。
すなわち、AI-IRW深さの統計的対向に対する集中結果が証明される。
理論解析の他,異常検出への応用も検討され,数値計算結果が提示され,我々が提案する深さ関数の妥当性に関する強い実証的証拠が得られる。
関連論文リスト
- Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Computational-Statistical Gaps in Gaussian Single-Index Models [77.1473134227844]
単次元モデル(Single-Index Models)は、植木構造における高次元回帰問題である。
我々は,統計的クエリ (SQ) と低遅延多項式 (LDP) フレームワークの両方において,計算効率のよいアルゴリズムが必ずしも$Omega(dkstar/2)$サンプルを必要とすることを示した。
論文 参考訳(メタデータ) (2024-03-08T18:50:19Z) - Effective Minkowski Dimension of Deep Nonparametric Regression: Function
Approximation and Statistical Theories [70.90012822736988]
ディープ非パラメトリック回帰に関する既存の理論は、入力データが低次元多様体上にある場合、ディープニューラルネットワークは本質的なデータ構造に適応できることを示した。
本稿では,$mathcalS$で表される$mathbbRd$のサブセットに入力データが集中するという緩和された仮定を導入する。
論文 参考訳(メタデータ) (2023-06-26T17:13:31Z) - Statistical Depth Functions for Ranking Distributions: Definitions,
Statistical Learning and Applications [3.7564482287844205]
中央値/合意の概念は、ランキングデータの統計的要約を提供するために広く研究されてきた。
本論文の目的は,そのような量に基づいて,量子論,階数,統計学的な手順のアナログを定義することである。
論文 参考訳(メタデータ) (2022-01-20T10:30:56Z) - Eikonal depth: an optimal control approach to statistical depths [0.7614628596146599]
本稿では,制御理論と固有方程式に基づく,グローバルに定義された新しいタイプの統計深度を提案する。
この深さは解釈や計算が容易で、マルチモーダルな振る舞いを表現的に捉え、非ユークリッド的なデータに自然に拡張する。
論文 参考訳(メタデータ) (2022-01-14T01:57:48Z) - Inverting brain grey matter models with likelihood-free inference: a
tool for trustable cytoarchitecture measurements [62.997667081978825]
脳の灰白質細胞構造の特徴は、体密度と体積に定量的に敏感であり、dMRIでは未解決の課題である。
我々は新しいフォワードモデル、特に新しい方程式系を提案し、比較的スパースなb殻を必要とする。
次に,提案手法を逆転させるため,確率自由推論 (LFI) として知られるベイズ解析から最新のツールを適用した。
論文 参考訳(メタデータ) (2021-11-15T09:08:27Z) - Understanding the Under-Coverage Bias in Uncertainty Estimation [58.03725169462616]
量子レグレッションは、現実の望ましいカバレッジレベルよりもアンファンダーカバー(enmphunder-cover)する傾向がある。
我々は、量子レグレッションが固有のアンダーカバーバイアスに悩まされていることを証明している。
我々の理論は、この過大被覆バイアスが特定の高次元パラメータ推定誤差に起因することを明らかにしている。
論文 参考訳(メタデータ) (2021-06-10T06:11:55Z) - Depth-based pseudo-metrics between probability distributions [1.1470070927586016]
本研究では,データ深度に基づく連続確率測度と関連する中央領域の2つの疑似測度を提案する。
Wasserstein距離とは対照的に、提案された疑似メトリックは次元の呪いに苦しむことはない。
地域ベースの擬似メトリックは堅牢なw.r.tである。
両端と尾が重い。
論文 参考訳(メタデータ) (2021-03-23T17:33:18Z) - Analytic Characterization of the Hessian in Shallow ReLU Models: A Tale
of Symmetry [9.695960412426672]
我々は,スプリアスミニマの様々な家系でヘッセンを解析的に特徴付ける。
特に、$dge k$ 標準ガウス入力について、 (a) ヘッセンの $dk$ 固有値の内、$dk - O(d)$ が 0 に近づき、 (b) $Omega(d)$ 固有値は $k$ で線型的に増加することを証明している。
論文 参考訳(メタデータ) (2020-08-04T20:08:35Z) - A Concentration of Measure and Random Matrix Approach to Large
Dimensional Robust Statistics [45.24358490877106]
本稿では,データコレクションである$X = (x_1,ldots,x_n)$を,$x_i = sqrt tau_i z_i + m$で推定する。
我々は、この半測度と測度引数の集中を利用して、ロバストな推定器の存在と特異性を証明し、その制限スペクトル分布を評価する。
論文 参考訳(メタデータ) (2020-06-17T09:02:26Z) - A Random Matrix Analysis of Random Fourier Features: Beyond the Gaussian
Kernel, a Precise Phase Transition, and the Corresponding Double Descent [85.77233010209368]
本稿では、データサンプルの数が$n$である現実的な環境で、ランダムフーリエ(RFF)回帰の正確さを特徴付けます。
この分析はまた、大きな$n,p,N$のトレーニングとテスト回帰エラーの正確な推定も提供する。
論文 参考訳(メタデータ) (2020-06-09T02:05:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。