論文の概要: Parametric Constraints for Bayesian Knowledge Tracing from First
Principles
- arxiv url: http://arxiv.org/abs/2401.09456v1
- Date: Sat, 23 Dec 2023 03:58:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 09:13:06.592498
- Title: Parametric Constraints for Bayesian Knowledge Tracing from First
Principles
- Title(参考訳): ベイズ知識の第一原理に基づくパラメトリック制約
- Authors: Denis Shchepakin, Sreecharan Sankaranarayanan, Dawn Zimmaro
- Abstract要約: 本稿では、BKTパラメータ空間に課せられる制約を導出するために、「第一原理から」アプローチをとる。
さらに,BKTパラメータを新たに定義した制約に基づいて推定するアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.276240219662896
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Bayesian Knowledge Tracing (BKT) is a probabilistic model of a learner's
state of mastery corresponding to a knowledge component. It considers the
learner's state of mastery as a "hidden" or latent binary variable and updates
this state based on the observed correctness of the learner's response using
parameters that represent transition probabilities between states. BKT is often
represented as a Hidden Markov Model and the Expectation-Maximization (EM)
algorithm is used to infer these parameters. However, this algorithm can suffer
from several issues including producing multiple viable sets of parameters,
settling into a local minima, producing degenerate parameter values, and a high
computational cost during fitting. This paper takes a "from first principles"
approach to deriving constraints that can be imposed on the BKT parameter
space. Starting from the basic mathematical truths of probability and building
up to the behaviors expected of the BKT parameters in real systems, this paper
presents a mathematical derivation that results in succinct constraints that
can be imposed on the BKT parameter space. Since these constraints are
necessary conditions, they can be applied prior to fitting in order to reduce
computational cost and the likelihood of issues that can emerge from the EM
procedure. In order to see that promise through, the paper further introduces a
novel algorithm for estimating BKT parameters subject to the newly defined
constraints. While the issue of degenerate parameter values has been reported
previously, this paper is the first, to our best knowledge, to derive the
constrains from first principles while also presenting an algorithm that
respects those constraints.
- Abstract(参考訳): ベイズ知識トレース(英: bayesian knowledge tracing、bkt)は、知識要素に対応する学習者の熟達状態の確率モデルである。
学習者の熟達状態は「隠れている」または潜伏したバイナリ変数と見なされ、状態間の遷移確率を表すパラメータを用いて学習者の応答の観測された正確性に基づいてこの状態を更新する。
BKTはしばしば隠れマルコフモデルとして表現され、これらのパラメータを推測するために期待最大化(EM)アルゴリズムが使用される。
しかし、このアルゴリズムは、複数の実行可能なパラメータセットの生成、ローカルミニマへの落ち着き、縮退したパラメータ値の生成、適合時の計算コストなど、いくつかの問題に苦しむ可能性がある。
本稿では、BKTパラメータ空間に課せられる制約を導出するために、「第一原理から」アプローチをとる。
本稿では, 確率の基本的な数学的真理から, 実系における bkt パラメータに期待される挙動まで構築することから, bkt パラメータ空間に課される簡潔な制約をもたらす数学的導出を提案する。
これらの制約は必要条件であるため、計算コストとEMプロシージャから生じる可能性のある問題の可能性を減らすために、適合前に適用することができる。
そこで本研究では,BKTパラメータを新たに定義した制約に基づいて推定する新しいアルゴリズムを提案する。
退化パラメータ値の問題は以前にも報告されているが、本論文は第一原理からの制約を導出すると同時に、それらの制約を尊重するアルゴリズムも提示する最初の最善の知識である。
関連論文リスト
- Learning Algorithms for Verification of Markov Decision Processes [20.5951492453299]
マルコフ決定過程(MDP)の検証に学習アルゴリズムを適用するための一般的な枠組みを提案する。
提案するフレームワークは,検証における中核的な問題である確率的到達性に重点を置いている。
論文 参考訳(メタデータ) (2024-03-14T08:54:19Z) - Online non-parametric likelihood-ratio estimation by Pearson-divergence
functional minimization [55.98760097296213]
iid 観測のペア $(x_t sim p, x'_t sim q)$ が時間の経過とともに観測されるような,オンラインな非パラメトリック LRE (OLRE) のための新しいフレームワークを提案する。
本稿では,OLRE法の性能に関する理論的保証と,合成実験における実証的検証について述べる。
論文 参考訳(メタデータ) (2023-11-03T13:20:11Z) - Sub-linear Regret in Adaptive Model Predictive Control [56.705978425244496]
本稿では,STT-MPC (Self-Tuning tube-based Model Predictive Control) について述べる。
システム力学を最初に認識したアルゴリズムと比較して,アルゴリズムの後悔を解析する。
論文 参考訳(メタデータ) (2023-10-07T15:07:10Z) - Geometry-Aware Approaches for Balancing Performance and Theoretical
Guarantees in Linear Bandits [6.907555940790131]
トンプソンサンプリングとグリーディは有望な経験的性能を示したが、これは悲観的な理論的後悔の境界とは対照的である。
本研究では不確実楕円体の幾何学的特性を追跡する新しいデータ駆動手法を提案する。
ベースアルゴリズムが不十分な問題インスタンスを特定し,コース修正する。
論文 参考訳(メタデータ) (2023-06-26T17:38:45Z) - Stochastic Marginal Likelihood Gradients using Neural Tangent Kernels [78.6096486885658]
線形化されたラプラス近似に下界を導入する。
これらの境界は漸進的な最適化が可能であり、推定精度と計算複雑性とのトレードオフを可能にする。
論文 参考訳(メタデータ) (2023-06-06T19:02:57Z) - PriorCVAE: scalable MCMC parameter inference with Bayesian deep
generative modelling [12.820453440015553]
近年、可変オートエンコーダ(VAE)のような深層生成モデルを用いてGPプリエントを符号化できることが示されている。
MCMC推論において、VAEが元のプリミティブのドロップイン置換としてどのように機能するかを示す。
ODEの解を符号化するために、PresideCVAEを提案する。
論文 参考訳(メタデータ) (2023-04-09T20:23:26Z) - History-Based, Bayesian, Closure for Stochastic Parameterization:
Application to Lorenz '96 [0.09137554315375918]
本研究では,ニューラルネットワークに対するベイズ形式に基づく新しいパラメータ化手法を開発し,不確実な定量化を考慮に入れた。
ベイズ史に基づくパラメータ化をLorenz '96モデルに適用し,ノイズやスパースデータの存在下でのパラメータ化について検討した。
このアプローチは閉包問題に対するベイズ的アプローチの活用の道を開く。
論文 参考訳(メタデータ) (2022-10-26T05:22:50Z) - Sample-Then-Optimize Batch Neural Thompson Sampling [50.800944138278474]
我々はトンプソンサンプリング(TS)ポリシーに基づくブラックボックス最適化のための2つのアルゴリズムを提案する。
入力クエリを選択するには、NNをトレーニングし、トレーニングされたNNを最大化してクエリを選択するだけです。
我々のアルゴリズムは、大きなパラメータ行列を逆転する必要性を助長するが、TSポリシーの妥当性は保たれている。
論文 参考訳(メタデータ) (2022-10-13T09:01:58Z) - A Statistical Decision-Theoretical Perspective on the Two-Stage Approach
to Parameter Estimation [7.599399338954307]
2段階(TS)アプローチは、信頼できるパラメトリック推定を得るために適用することができる。
独立したサンプルと同一のサンプルのモデルにTSアプローチを適用する方法を示す。
論文 参考訳(メタデータ) (2022-03-31T18:19:47Z) - FLIP: A flexible initializer for arbitrarily-sized parametrized quantum
circuits [105.54048699217668]
任意サイズのパラメタライズド量子回路のためのFLexible Initializerを提案する。
FLIPは任意の種類のPQCに適用することができ、初期パラメータの一般的なセットに頼る代わりに、成功したパラメータの構造を学ぶように調整されている。
本稿では, 3つのシナリオにおいてFLIPを用いることの利点を述べる。不毛な高原における問題ファミリ, 最大カット問題インスタンスを解くPQCトレーニング, 1次元フェルミ-ハッバードモデルの基底状態エネルギーを求めるPQCトレーニングである。
論文 参考訳(メタデータ) (2021-03-15T17:38:33Z) - Amortized Conditional Normalized Maximum Likelihood: Reliable Out of
Distribution Uncertainty Estimation [99.92568326314667]
本研究では,不確実性推定のための拡張性のある汎用的アプローチとして,償却条件正規化最大値(ACNML)法を提案する。
提案アルゴリズムは条件付き正規化最大度(CNML)符号化方式に基づいており、最小記述長の原理に従って最小値の最適特性を持つ。
我々は、ACNMLが、分布外入力のキャリブレーションの観点から、不確実性推定のための多くの手法と好意的に比較することを示した。
論文 参考訳(メタデータ) (2020-11-05T08:04:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。