論文の概要: Asymptotic Inference for Infinitely Imbalanced Logistic Regression
- arxiv url: http://arxiv.org/abs/2204.13231v1
- Date: Wed, 27 Apr 2022 23:52:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-29 14:51:28.208822
- Title: Asymptotic Inference for Infinitely Imbalanced Logistic Regression
- Title(参考訳): 無限不均衡なロジスティック回帰に対する漸近推論
- Authors: Dorian Goldman, Bo Zhang
- Abstract要約: 制限勾配の分散は、多数群の分布に対するマイノリティクラスの点の平均のzスコアに指数関数的に依存することを示す。
我々はモンテカルロシミュレーションで結果を確認した。
- 参考スコア(独自算出の注目度): 4.981260380070016
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we extend the work of Owen (2007) by deriving a second order
expansion for the slope parameter in logistic regression, when the size of the
majority class is unbounded and the minority class is finite. More precisely,
we demonstrate that the second order term converges to a normal distribution
and explicitly compute its variance, which surprisingly once again depends only
on the mean of the minority class points and not their arrangement under mild
regularity assumptions. In the case that the majority class is normally
distributed, we illustrate that the variance of the the limiting slope depends
exponentially on the z-score of the average of the minority class's points with
respect to the majority class's distribution. We confirm our results by Monte
Carlo simulations.
- Abstract(参考訳): 本稿では,多数クラスのサイズが非有界で少数クラスが有限である場合,ロジスティック回帰における勾配パラメータの2次展開を導出することにより,Owen (2007) の作業を拡張する。
より正確には、第二次項が正規分布に収束し、その分散を明示的に計算することが示され、これは意外にも、軽度正規性仮定の下での配置ではなく、少数類点の平均にのみ依存する。
多数クラスが通常分布する場合には、制限勾配の分散は、多数クラス分布に対する少数クラスの点の平均のz-スコアに指数関数的に依存することを示す。
我々はモンテカルロシミュレーションで結果を確認した。
関連論文リスト
- Theory on Score-Mismatched Diffusion Models and Zero-Shot Conditional Samplers [49.97755400231656]
本報告では,明示的な次元の一般スコアミスマッチ拡散サンプリング器を用いた最初の性能保証について述べる。
その結果, スコアミスマッチは, 目標分布とサンプリング分布の分布バイアスとなり, 目標分布とトレーニング分布の累積ミスマッチに比例することがわかった。
この結果は、測定ノイズに関係なく、任意の条件モデルに対するゼロショット条件付きサンプリングに直接適用することができる。
論文 参考訳(メタデータ) (2024-10-17T16:42:12Z) - Broadening Target Distributions for Accelerated Diffusion Models via a Novel Analysis Approach [49.97755400231656]
本研究では,新しいDDPMサンプリング器が,これまで考慮されていなかった3種類の分散クラスに対して高速化性能を実現することを示す。
この結果から, DDPM型加速サンプリング器におけるデータ次元$d$への依存性が改善された。
論文 参考訳(メタデータ) (2024-02-21T16:11:47Z) - SimPro: A Simple Probabilistic Framework Towards Realistic Long-Tailed Semi-Supervised Learning [49.94607673097326]
ラベルなしデータの分散に関する前提を前提としない、高度に適応可能なフレームワークをSimProとして提案する。
我々のフレームワークは確率モデルに基づいており、期待最大化アルゴリズムを革新的に洗練する。
本手法は,様々なベンチマークやデータ分散シナリオにまたがる一貫した最先端性能を示す。
論文 参考訳(メタデータ) (2024-02-21T03:39:04Z) - Divide-and-Conquer Hard-thresholding Rules in High-dimensional
Imbalanced Classification [1.0312968200748118]
高次元の線形判別分析(LDA)における不均衡クラスサイズの影響について検討した。
マイノリティ・クラスと呼ばれる1つのクラスのデータの不足により、LDAはマイノリティ・クラスを無視し、最大誤分類率を得ることを示す。
そこで本研究では,不等式化率の大きな差を低減させる分割・対数法に基づくハードコンカレンスルールの新たな構成法を提案する。
論文 参考訳(メタデータ) (2021-11-05T07:44:28Z) - Shift Happens: Adjusting Classifiers [2.8682942808330703]
ブレアスコアやログロス(クロスエントロピー)のような適切なスコアリングルールによって測定される期待損失を最小限に抑えることは、確率的分類器を訓練する際の共通の目的である。
本稿では,全ての予測を平均予測とクラス分布に等化させる手法を提案する。
実際に、クラス分布が概ね知られている場合、シフトの量やクラス分布が知られている精度に応じて、損失が減少することがしばしばあることを実験によって実証した。
論文 参考訳(メタデータ) (2021-11-03T21:27:27Z) - Linear Classifiers Under Infinite Imbalance [1.370633147306388]
無限不均衡極限における二項分類のための線形判別関数の挙動について検討する。
広いクラスの重み関数に対して、インターセプトは分岐するが、係数ベクトルの残りの部分は無限の不均衡の下では有限なほぼ確実な極限を持つことを示す。
論文 参考訳(メタデータ) (2021-06-10T15:01:54Z) - Sharper Sub-Weibull Concentrations: Non-asymptotic Bai-Yin's Theorem [0.0]
非漸近集中不等式は、機械学習と統計学の有限サンプル理論において重要な役割を果たす。
独立部分ワイブル確率変数の和に対する、よりシャープで定数に比例した濃度不等式を得る。
負二項回帰の応用において、スパース構造を持つ$ell$-errorを与え、これは負二項回帰の新しい結果である。
論文 参考訳(メタデータ) (2021-02-04T07:16:27Z) - Moment Multicalibration for Uncertainty Estimation [11.734565447730501]
H'ebert-Johnson et al から "multicalibration" という概念を実現する方法を示す。
モーメント推定は、モーメント多重校正が得られた全ての(十分大きい)サブグループに対して同時に有効であるような限界予測間隔を導出するために用いられることを示す。
論文 参考訳(メタデータ) (2020-08-18T17:08:31Z) - Distributional Reinforcement Learning via Moment Matching [54.16108052278444]
ニューラルネットワークを用いて各戻り分布から統計量の有限集合を学習する手法を定式化する。
我々の手法は、戻り分布とベルマン目標の間のモーメントの全ての順序を暗黙的に一致させるものとして解釈できる。
Atariゲームスイートの実験により,本手法は標準分布RLベースラインよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-07-24T05:18:17Z) - On Linear Stochastic Approximation: Fine-grained Polyak-Ruppert and
Non-Asymptotic Concentration [115.1954841020189]
The inequality and non-asymptotic properties of approximation procedure with Polyak-Ruppert averaging。
一定のステップサイズと無限大となる反復数を持つ平均的反復数に対する中心極限定理(CLT)を証明する。
論文 参考訳(メタデータ) (2020-04-09T17:54:18Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。