論文の概要: Testing Tail Weight of a Distribution Via Hazard Rate
- arxiv url: http://arxiv.org/abs/2010.02888v1
- Date: Tue, 6 Oct 2020 17:13:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 06:21:46.311717
- Title: Testing Tail Weight of a Distribution Via Hazard Rate
- Title(参考訳): ハザードレートによる分布のテールウェイトの試験
- Authors: Maryam Aliakbarpour, Amartya Shankha Biswas, Kavya Ravichandran,
Ronitt Rubinfeld
- Abstract要約: 本研究では,重み付き分布と重み付き分布とを,ハザード率に基づく定義により区別するアルゴリズムを開発した。
理論的結果を実証的に検証する。
- 参考スコア(独自算出の注目度): 7.399725974708623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding the shape of a distribution of data is of interest to people in
a great variety of fields, as it may affect the types of algorithms used for
that data. Given samples from a distribution, we seek to understand how many
elements appear infrequently, that is, to characterize the tail of the
distribution. We develop an algorithm based on a careful bucketing scheme that
distinguishes heavy-tailed distributions from non-heavy-tailed ones via a
definition based on the hazard rate under some natural smoothness and ordering
assumptions. We verify our theoretical results empirically.
- Abstract(参考訳): データ分布の形状を理解することは、そのデータに使用されるアルゴリズムの種類に影響する可能性があるため、さまざまな分野の人々にとって興味深い。
分布のサンプルが与えられた場合、分布の尾を特徴付けるために、どれくらいの要素が頻繁に現れるかを理解する。
自然の平滑さと順序付けの仮定の下でのハザードレート率に基づく定義を通じて,重み付き分布と重み付き分布を区別する,慎重なバケットスキームに基づくアルゴリズムを開発した。
理論的結果を実証的に検証する。
関連論文リスト
- Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Theoretical Insights for Diffusion Guidance: A Case Study for Gaussian
Mixture Models [59.331993845831946]
拡散モデルは、所望の特性に向けてサンプル生成を操るために、スコア関数にタスク固有の情報を注入することの恩恵を受ける。
本稿では,ガウス混合モデルの文脈における拡散モデルに対する誘導の影響を理解するための最初の理論的研究を提供する。
論文 参考訳(メタデータ) (2024-03-03T23:15:48Z) - Probabilistic Matching of Real and Generated Data Statistics in Generative Adversarial Networks [0.6906005491572401]
本稿では,あるデータ統計量の分布が実データの分布と一致することを確実にする手法を提案する。
提案手法を合成データセットと実世界のデータセットで評価し,提案手法の性能向上を実証した。
論文 参考訳(メタデータ) (2023-06-19T14:03:27Z) - Distribution Shift Inversion for Out-of-Distribution Prediction [57.22301285120695]
本稿では,OoD(Out-of-Distribution)予測のためのポータブル分布シフト変換アルゴリズムを提案する。
提案手法は,OoDアルゴリズムを広範囲に接続した場合に,一般的な性能向上をもたらすことを示す。
論文 参考訳(メタデータ) (2023-06-14T08:00:49Z) - Classification of Heavy-tailed Features in High Dimensions: a
Superstatistical Approach [1.4469725791865984]
我々は2つのデータポイントの雲と一般的なセントロイドの混合の学習を特徴付ける。
得られた推定器の一般化性能について検討し、正規化の役割を解析し、分離性遷移を解析した。
論文 参考訳(メタデータ) (2023-04-06T07:53:05Z) - Data thinning for convolution-closed distributions [2.299914829977005]
本稿では,観測を2つ以上の独立した部分に分割する手法であるデータ薄型化を提案する。
教師なし学習手法の結果の検証には,データの薄化が有効であることを示す。
論文 参考訳(メタデータ) (2023-01-18T02:47:41Z) - Out-of-distribution Detection by Cross-class Vicinity Distribution of
In-distribution Data [36.66825830101456]
画像分類のためのディープニューラルネットワークは、トレーニングにおいて、インディストリビューション入力を対応する基底真理ラベルにマップすることしか学ばない。
これは、全てのサンプルが独立であり、同一に分散しているという仮定から生じる。
textitCross-class Vicinity Distributionは、複数のin-distributionサンプルを混合したアウト・オブ・ディストリビューションサンプルが、その構成成分の同じクラスを共有していないことを仮定して導入される。
論文 参考訳(メタデータ) (2022-06-19T12:03:33Z) - A Robust and Flexible EM Algorithm for Mixtures of Elliptical
Distributions with Missing Data [71.9573352891936]
本稿では、ノイズや非ガウス的なデータに対するデータ計算の欠如に対処する。
楕円分布と潜在的な欠落データを扱う特性を混合した新しいEMアルゴリズムについて検討した。
合成データの実験的結果は,提案アルゴリズムが外れ値に対して頑健であり,非ガウスデータで使用可能であることを示す。
論文 参考訳(メタデータ) (2022-01-28T10:01:37Z) - Investigating Shifts in GAN Output-Distributions [5.076419064097734]
本稿では,実学習データとGAN生成データの分布の可観測的変化を系統的に調査するためのループ学習手法を提案する。
全体として、これらの手法を組み合わせることで、現在のGANアルゴリズムの自然的制限を爆発的に調査することができる。
論文 参考訳(メタデータ) (2021-12-28T09:16:55Z) - Unrolling Particles: Unsupervised Learning of Sampling Distributions [102.72972137287728]
粒子フィルタリングは複素系の優れた非線形推定を計算するために用いられる。
粒子フィルタは様々なシナリオにおいて良好な推定値が得られることを示す。
論文 参考訳(メタデータ) (2021-10-06T16:58:34Z) - Profile Entropy: A Fundamental Measure for the Learnability and
Compressibility of Discrete Distributions [63.60499266361255]
離散分布のサンプルに対して、プロファイルエントロピーは推定、推論、圧縮の概念を統一する基本的な尺度であることを示す。
具体的には、プロファイルエントロピー a) は、最適自然推定器に対する分布を推定する速度を決定する; b) 任意のラベル不変分布コレクションに対する最適推定器と比較して全ての対称特性を推定する速度を特徴付ける; c) プロファイル圧縮の限界として機能する。
論文 参考訳(メタデータ) (2020-02-26T17:49:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。