論文の概要: Predicting Rare Events by Shrinking Towards Proportional Odds
- arxiv url: http://arxiv.org/abs/2305.18700v1
- Date: Tue, 30 May 2023 02:50:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 18:36:37.783119
- Title: Predicting Rare Events by Shrinking Towards Proportional Odds
- Title(参考訳): 比例オッズへの縮小による希少事象の予測
- Authors: Gregory Faletto and Jacob Bien
- Abstract要約: 先行段階のより豊富なデータは、希少事象の確率の推定を改善するために活用される可能性がある。
順序回帰に対する比例オッズモデルの緩和であるPRESTOを提案する。
PRESTO が決定境界重みを不規則に推定することを証明している。
- 参考スコア(独自算出の注目度): 1.599072005190786
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training classifiers is difficult with severe class imbalance, but many rare
events are the culmination of a sequence with much more common intermediate
outcomes. For example, in online marketing a user first sees an ad, then may
click on it, and finally may make a purchase; estimating the probability of
purchases is difficult because of their rarity. We show both theoretically and
through data experiments that the more abundant data in earlier steps may be
leveraged to improve estimation of probabilities of rare events. We present
PRESTO, a relaxation of the proportional odds model for ordinal regression.
Instead of estimating weights for one separating hyperplane that is shifted by
separate intercepts for each of the estimated Bayes decision boundaries between
adjacent pairs of categorical responses, we estimate separate weights for each
of these transitions. We impose an L1 penalty on the differences between
weights for the same feature in adjacent weight vectors in order to shrink
towards the proportional odds model. We prove that PRESTO consistently
estimates the decision boundary weights under a sparsity assumption. Synthetic
and real data experiments show that our method can estimate rare probabilities
in this setting better than both logistic regression on the rare category,
which fails to borrow strength from more abundant categories, and the
proportional odds model, which is too inflexible.
- Abstract(参考訳): 訓練分類器は厳密なクラス不均衡では難しいが、多くの稀な事象はより一般的な中間結果の列の頂点である。
例えば、オンラインマーケティングでは、ユーザーが最初に広告を見た後、クリックして最終的に購入することがある。
理論上およびデータ実験を通じて,より豊富なデータを利用して希少事象の確率の推定を改善できることを示す。
本稿では,順序回帰に対する比例オッズモデルの緩和であるprestoを提案する。
1つの分離超平面の重みを、隣接するカテゴリ応答のペア間で推定されたベイズ決定境界ごとに別々のインターセプトによってシフトする代わりに、これらの遷移の各々の重みを推定する。
我々は、比例オッズモデルに向けて縮小するために、隣接する重みベクトルにおける同じ特徴の重みの差にL1のペナルティを課す。
PRESTO が決定境界重みを不規則に推定することを証明している。
合成および実データ実験により,本手法は,より豊富なカテゴリからの強度の借り入れに失敗するレアカテゴリーのロジスティック回帰と,非フレキシブルすぎるオッズモデルの両方よりも,この設定におけるレア確率を推定できることを示した。
関連論文リスト
- Relaxed Quantile Regression: Prediction Intervals for Asymmetric Noise [51.87307904567702]
量子レグレッション(Quantile regression)は、出力の分布における量子の実験的推定を通じてそのような間隔を得るための主要なアプローチである。
本稿では、この任意の制約を除去する量子回帰に基づく区間構成の直接的な代替として、Relaxed Quantile Regression (RQR)を提案する。
これにより、柔軟性が向上し、望ましい品質が向上することが実証された。
論文 参考訳(メタデータ) (2024-06-05T13:36:38Z) - Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Nonparametric logistic regression with deep learning [1.2509746979383698]
非パラメトリックロジスティック回帰では、クルバック・リーバーの発散は容易に発散できる。
余剰リスクを解析する代わりに、最大可能性推定器の一貫性を示すのに十分である。
重要な応用として、深層ニューラルネットワークによるNPMLEの収束率を導出する。
論文 参考訳(メタデータ) (2024-01-23T04:31:49Z) - Uncertainty Voting Ensemble for Imbalanced Deep Regression [20.176217123752465]
本稿では,不均衡なデータから学習するUVOTEを紹介する。
従来の回帰損失を負の対数類似度に置き換え、サンプルワイドのアレタリックな不確実性も予測する。
UVOTEは先行技術より一貫して優れており、同時に精度のよい不確実性評価が得られている。
論文 参考訳(メタデータ) (2023-05-24T14:12:21Z) - Benign-Overfitting in Conditional Average Treatment Effect Prediction
with Linear Regression [14.493176427999028]
線形回帰モデルを用いて条件平均処理効果(CATE)の予測における良性過剰適合理論について検討した。
一方,IPW-learnerは確率スコアが分かっていればリスクをゼロに収束させるが,T-learnerはランダムな割り当て以外の一貫性を達成できないことを示す。
論文 参考訳(メタデータ) (2022-02-10T18:51:52Z) - Multivariate Probabilistic Regression with Natural Gradient Boosting [63.58097881421937]
多変量予測分布の条件パラメータを非パラメトリックにモデル化したNatural Gradient Boosting (NGBoost) 手法を提案する。
提案手法は頑健で, 広範囲なチューニングを伴わず, 推定対象分布に対してモジュール構造であり, 既存の手法と比較して競争力がある。
論文 参考訳(メタデータ) (2021-06-07T17:44:49Z) - DropLoss for Long-Tail Instance Segmentation [56.162929199998075]
珍しいカテゴリーと頻繁なカテゴリーのアンバランスを補う新しい適応損失であるDropLossを開発しています。
LVISデータセットでは,レア,一般的,頻繁なカテゴリにまたがる最先端のmAPを示す。
論文 参考訳(メタデータ) (2021-04-13T17:59:22Z) - Distributionally Robust Parametric Maximum Likelihood Estimation [13.09499764232737]
パラメトリックな名目分布に対して,最悪の場合のログロスを均一に最小化する,分布的に頑健な最大確率推定器を提案する。
我々の新しい頑健な推定器は、統計的整合性も享受し、回帰と分類の両方に有望な実験結果を提供する。
論文 参考訳(メタデータ) (2020-10-11T19:05:49Z) - Ambiguity in Sequential Data: Predicting Uncertain Futures with
Recurrent Models [110.82452096672182]
逐次データによる曖昧な予測を扱うために,Multiple hypothesis Prediction(MHP)モデルの拡張を提案する。
また、不確実性を考慮するのに適した曖昧な問題に対する新しい尺度も導入する。
論文 参考訳(メタデータ) (2020-03-10T09:15:42Z) - Decision-Making with Auto-Encoding Variational Bayes [71.44735417472043]
変分分布とは異なる後部近似を用いて意思決定を行うことが示唆された。
これらの理論的な結果から,最適モデルに関するいくつかの近似的提案を学習することを提案する。
おもちゃの例に加えて,単細胞RNAシークエンシングのケーススタディも紹介する。
論文 参考訳(メタデータ) (2020-02-17T19:23:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。