論文の概要: Goodness-of-Fit Tests for Latent Class Models with Ordinal Categorical Data
- arxiv url: http://arxiv.org/abs/2602.21572v1
- Date: Wed, 25 Feb 2026 04:52:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.70849
- Title: Goodness-of-Fit Tests for Latent Class Models with Ordinal Categorical Data
- Title(参考訳): 正規カテゴリーデータを用いた潜在クラスモデルの適合性試験
- Authors: Huan Qing,
- Abstract要約: 本稿では,潜在クラス数を決定するためのテスト統計法を提案する。
零仮説の下では、テスト統計は確率においてゼロに収束する。
未適合な代替法の下では、統計学自身は一定の正の定数を超える。
2つのシーケンシャルテストアルゴリズムは、連続して潜在クラスの真の数を推定する。
- 参考スコア(独自算出の注目度): 4.314956204483074
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ordinal categorical data are widely collected in psychology, education, and other social sciences, appearing commonly in questionnaires, assessments, and surveys. Latent class models provide a flexible framework for uncovering unobserved heterogeneity by grouping individuals into homogeneous classes based on their response patterns. A fundamental challenge in applying these models is determining the number of latent classes, which is unknown and must be inferred from data. In this paper, we propose one test statistic for this problem. The test statistic centers the largest singular value of a normalized residual matrix by a simple sample-size adjustment. Under the null hypothesis that the candidate number of latent classes is correct, its upper bound converges to zero in probability. Under an under-fitted alternative, the statistic itself exceeds a fixed positive constant with probability approaching one. This sharp dichotomous behavior of the test statistic yields two sequential testing algorithms that consistently estimate the true number of latent classes. Extensive experimental studies confirm the theoretical findings and demonstrate their accuracy and reliability in determining the number of latent classes.
- Abstract(参考訳): 通常の分類データは心理学、教育、その他の社会科学で広く収集され、一般にアンケート、評価、調査に現れる。
潜在クラスモデルは、応答パターンに基づいて個人を同種クラスに分類することで、観測されない不均一性を明らかにするフレキシブルなフレームワークを提供する。
これらのモデルを適用する上での根本的な課題は、未知でデータから推測されなければならない潜在クラスの数を決定することである。
本稿では,この問題に対する1つのテスト統計量を提案する。
テスト統計は、単純なサンプルサイズ調整による正規化残留行列の最大の特異値の中心となる。
潜在クラスの候補数が正しいという null 仮説の下では、その上限は確率において 0 に収束する。
未適合な代替法の下では、統計学自身は確率が1に近づく確率の固定正の定数を超える。
テスト統計学のこの鋭い二コトプスの振る舞いは、2つの逐次テストアルゴリズムをもたらし、従って潜伏クラスの真の数を推定する。
大規模実験により理論的な結果が確認され、潜在クラス数を決定する精度と信頼性が示された。
関連論文リスト
- Size-adaptive Hypothesis Testing for Fairness [8.315080617799445]
我々は、公正性評価を証拠に基づく統計的決定に変換する統一的、サイズ適応的、仮説テストフレームワークを導入する。
統計的パリティ差に対して中央限の結果が証明され、解析的信頼区間と、タイプI(偽陽性)エラーがレベル$alpha$で保証されるウォルド試験が導かれる。
小さな交叉群の長い尾に対して、完全ベイズ的ディリクレ・マルチノミカル推定器を導出する。
論文 参考訳(メタデータ) (2025-06-12T11:22:09Z) - Pre-validation Revisited [79.92204034170092]
シミュレーションと応用による予測,推測,誤差推定における事前検証の特性と利点を示す。
そこで本研究では, あるモデル下での事前検証予測のためのテスト統計量の解析的分布だけでなく, 推論を行うための一般的なブートストラップ手順も提案する。
論文 参考訳(メタデータ) (2025-05-21T00:20:14Z) - Multi-dimensional domain generalization with low-rank structures [18.565189720128856]
統計的および機械学習の手法では、テストデータがトレーニングデータと同一に分散されていると仮定されるのが一般的である。
この仮定は必ずしも成り立たないが、特にトレーニングデータに対象の個体群がよく表現されていないアプリケーションでは顕著である。
線形回帰モデルにおいて,この問題に対処するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-18T08:07:58Z) - Parametric Classification for Generalized Category Discovery: A Baseline
Study [70.73212959385387]
Generalized Category Discovery (GCD)は、ラベル付きサンプルから学習した知識を用いて、ラベルなしデータセットで新しいカテゴリを発見することを目的としている。
パラメトリック分類器の故障を調査し,高品質な監視が可能であった場合の過去の設計選択の有効性を検証し,信頼性の低い疑似ラベルを重要課題として同定する。
エントロピー正規化の利点を生かし、複数のGCDベンチマークにおける最先端性能を実現し、未知のクラス数に対して強いロバスト性を示す、単純で効果的なパラメトリック分類法を提案する。
論文 参考訳(メタデータ) (2022-11-21T18:47:11Z) - Statistical and Computational Phase Transitions in Group Testing [73.55361918807883]
本研究の目的は、希少な疾患を患っているk人の集団を同定することである。
個々人のテストを割り当てるための2つの異なる単純なランダムな手順を考える。
論文 参考訳(メタデータ) (2022-06-15T16:38:50Z) - Private Sequential Hypothesis Testing for Statisticians: Privacy, Error
Rates, and Sample Size [24.149533870085175]
我々は、Renyi差分プライバシーとして知られる、差分プライバシーのわずかな変種の下で、シーケンシャル仮説テスト問題を研究する。
我々は,Wald's Sequential Probability Ratio Test (SPRT)に基づく新たなプライベートアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-04-10T04:15:50Z) - Model-agnostic out-of-distribution detection using combined statistical
tests [15.27980070479021]
本稿では,学習された生成モデルを用いた分布外検出のための簡易な手法を提案する。
古典的パラメトリックテスト(ラオのスコアテスト)と最近導入された定性テストを組み合わせる。
その単純さと汎用性にもかかわらず、これらの手法はモデル固有のアウト・オブ・ディストリビューション検出アルゴリズムと競合することがある。
論文 参考訳(メタデータ) (2022-03-02T13:32:09Z) - A Statistical Test for Probabilistic Fairness [11.95891442664266]
不正な分類を検知するための統計的仮説テストを提案する。
理論的にも実証的にも,提案された試験が正しいことを示す。
さらに,提案フレームワークは,データの最も好ましい摂動を識別することにより,解釈可能性を提供する。
論文 参考訳(メタデータ) (2020-12-09T00:20:02Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。