論文の概要: Scalable Learning of Item Response Theory Models
- arxiv url: http://arxiv.org/abs/2403.00680v1
- Date: Fri, 1 Mar 2024 17:12:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 16:45:03.454782
- Title: Scalable Learning of Item Response Theory Models
- Title(参考訳): アイテム応答理論モデルのスケーラブルな学習
- Authors: Susanne Frick and Amer Krivo\v{s}ija and Alexander Munteanu
- Abstract要約: 項目応答理論(IRT)モデルは、分類データから、$m$テスト項目の遅延困難特性とともに、$n$試験の潜時能力を評価することを目的としている。
我々はこれらのモデルの類似性をロジスティック回帰に利用し、コアセットと呼ばれる小さな重み付き部分集合を用いて正確に近似することができる。
- 参考スコア(独自算出の注目度): 53.43355949923962
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Item Response Theory (IRT) models aim to assess latent abilities of $n$
examinees along with latent difficulty characteristics of $m$ test items from
categorical data that indicates the quality of their corresponding answers.
Classical psychometric assessments are based on a relatively small number of
examinees and items, say a class of $200$ students solving an exam comprising
$10$ problems. More recent global large scale assessments such as PISA, or
internet studies, may lead to significantly increased numbers of participants.
Additionally, in the context of Machine Learning where algorithms take the role
of examinees and data analysis problems take the role of items, both $n$ and
$m$ may become very large, challenging the efficiency and scalability of
computations. To learn the latent variables in IRT models from large data, we
leverage the similarity of these models to logistic regression, which can be
approximated accurately using small weighted subsets called coresets. We
develop coresets for their use in alternating IRT training algorithms,
facilitating scalable learning from large data.
- Abstract(参考訳): 項目応答理論(IRT)モデルは、応答の質を示す分類データから、$m$テスト項目の潜時難易度特性とともに、$n$試験の潜時能力を評価することを目的としている。
古典的な心理測定評価は、比較的少数の試験員と項目に基づいており、例えば、200ドルの学生が10ドルの問題からなる試験を解く。
PISAやインターネット研究のような近年のグローバルな大規模評価は、参加者を著しく増加させる可能性がある。
さらに、アルゴリズムが検査とデータ分析の役割を果たす機械学習のコンテキストでは、$n$と$m$の両方が非常に大きくなり、計算の効率とスケーラビリティに挑戦する可能性がある。
大規模データからirtモデルの潜在変数を学ぶために、これらのモデルの類似性を利用してロジスティック回帰を行い、コアセットと呼ばれる小さな重み付き部分集合を用いて正確に近似する。
大規模データからのスケーラブルな学習を容易にするために,irtトレーニングアルゴリズムを交互に使用するコアセットを開発した。
関連論文リスト
- Surprisal Driven $k$-NN for Robust and Interpretable Nonparametric
Learning [1.4293924404819704]
我々は情報理論の観点から、隣り合う従来のアルゴリズムに新たな光を当てた。
単一モデルを用いた分類,回帰,密度推定,異常検出などのタスクに対する頑健で解釈可能なフレームワークを提案する。
我々の研究は、分類と異常検出における最先端の成果を達成することによって、アーキテクチャの汎用性を示す。
論文 参考訳(メタデータ) (2023-11-17T00:35:38Z) - Latent class analysis with weighted responses [0.0]
本稿では、新しい生成モデル、重み付き潜在クラスモデル(WLCM)を提案する。
我々のモデルでは、遅延クラス構造を持つ任意の分布からデータの応答行列を生成することができる。
モデルの同定可能性について検討し,潜在クラスやその他のモデルパラメータを推定する効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-17T04:16:20Z) - A Survey of Learning on Small Data: Generalization, Optimization, and
Challenge [101.27154181792567]
ビッグデータの一般化能力を近似した小さなデータについて学ぶことは、AIの究極の目的の1つである。
この調査はPACフレームワークの下でのアクティブサンプリング理論に従い、小さなデータにおける学習の一般化誤差とラベルの複雑さを分析した。
効率的な小さなデータ表現の恩恵を受けるかもしれない複数のデータアプリケーションについて調査する。
論文 参考訳(メタデータ) (2022-07-29T02:34:19Z) - Linear Algorithms for Nonparametric Multiclass Probability Estimation [0.0]
アンサンブル学習によってクラス確率を推定するために,サポートベクトルマシン (wSVM) が開発された。
計算効率と推定精度の面でwSVMをさらに向上するために,ベースライン学習とOVA学習という2つの新しい学習手法を提案する。
論文 参考訳(メタデータ) (2022-05-25T03:15:22Z) - What Makes Good Contrastive Learning on Small-Scale Wearable-based
Tasks? [59.51457877578138]
本研究では,ウェアラブル型行動認識タスクにおけるコントラスト学習について検討する。
本稿では,PyTorchライブラリのtextttCL-HAR について述べる。
論文 参考訳(メタデータ) (2022-02-12T06:10:15Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Modeling Item Response Theory with Stochastic Variational Inference [8.369065078321215]
項目応答理論(IRT)のための変分ベイズ推論アルゴリズムを提案する。
この手法を5つの大規模項目応答データセットに適用すると、欠落したデータを出力する際の高いログ可能性と高い精度が得られる。
アルゴリズムの実装はオープンソースであり、簡単に利用できる。
論文 参考訳(メタデータ) (2021-08-26T05:00:27Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - Unravelling Small Sample Size Problems in the Deep Learning World [69.82853912238173]
筆者らはまず,アルゴリズムが動作空間に応じて分離される小さなサンプルサイズ問題に対するディープラーニングアルゴリズムのレビューを行う。
第2に,特徴マップの最も識別性の高い部分からグローバル情報を抽出することに焦点を当てた動的注意プーリング手法を提案する。
論文 参考訳(メタデータ) (2020-08-08T13:35:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。