論文の概要: SAICL: Student Modelling with Interaction-level Auxiliary Contrastive
Tasks for Knowledge Tracing and Dropout Prediction
- arxiv url: http://arxiv.org/abs/2210.09012v2
- Date: Wed, 19 Oct 2022 12:50:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 20:36:39.358868
- Title: SAICL: Student Modelling with Interaction-level Auxiliary Contrastive
Tasks for Knowledge Tracing and Dropout Prediction
- Title(参考訳): saicl: 知識追跡とドロップアウト予測のためのインタラクションレベル補助コントラストタスクを用いた学生モデル
- Authors: Jungbae Park, Jinyoung Kim, Soonwoo Kwon, and Sang Wan Lee
- Abstract要約: 本研究では,新しい学生モデリングフレームワークであるSAICLを紹介する。
クロスエントロピーと対照的な目的を組み合わせることで、提案したSAICLは、同等の知識追跡とドロップアウト予測性能を達成した。
- 参考スコア(独自算出の注目度): 15.116940192251029
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge tracing and dropout prediction are crucial for online education to
estimate students' knowledge states or to prevent dropout rates. While
traditional systems interacting with students suffered from data sparsity and
overfitting, recent sample-level contrastive learning helps to alleviate this
issue. One major limitation of sample-level approaches is that they regard
students' behavior interaction sequences as a bundle, so they often fail to
encode temporal contexts and track their dynamic changes, making it hard to
find optimal representations for knowledge tracing and dropout prediction. To
apply temporal context within the sequence, this study introduces a novel
student modeling framework, SAICL: \textbf{s}tudent modeling with
\textbf{a}uxiliary \textbf{i}nteraction-level \textbf{c}ontrastive
\textbf{l}earning. In detail, SAICL can utilize both proposed
self-supervised/supervised interaction-level contrastive objectives: MilCPC
(\textbf{M}ulti-\textbf{I}nteraction-\textbf{L}evel \textbf{C}ontrastive
\textbf{P}redictive \textbf{C}oding) and SupCPC (\textbf{Sup}ervised
\textbf{C}ontrastive \textbf{P}redictive \textbf{C}oding). While previous
sample-level contrastive methods for student modeling are highly dependent on
data augmentation methods, the SAICL is free of data augmentation while showing
better performance in both self-supervised and supervised settings. By
combining cross-entropy with contrastive objectives, the proposed SAICL
achieved comparable knowledge tracing and dropout prediction performance with
other state-of-art models without compromising inference costs.
- Abstract(参考訳): オンライン教育において、知識の追跡とドロップアウト予測は、生徒の知識状態の推定や、ドロップアウト率の防止に不可欠である。
学生と対話する従来のシステムはデータの疎さと過度な適合に悩まされているが、最近のサンプルレベルのコントラスト学習はこの問題を軽減するのに役立つ。
サンプルレベルのアプローチの1つの大きな制限は、学生の行動相互作用シーケンスをバンドルとみなすため、時間的文脈を符号化して動的変化を追跡するのに失敗し、知識追跡とドロップアウト予測のための最適な表現を見つけるのが難しくなることである。
この系列に時間的文脈を適用するために、新しい学生モデリングフレームワークであるsaicl: \textbf{s}tudent modeling with \textbf{a}uxiliary \textbf{i}nteraction-level \textbf{c}ontrastive \textbf{l}earningを導入する。
詳細は、milcpc (\textbf{m}ulti-\textbf{i}nteraction-\textbf{l}evel \textbf{c}ontrastive \textbf{p}redictive \textbf{c}oding)とsupcpc (\textbf{sup}ervised \textbf{c}ontrastive \textbf{p}redictive \textbf{c}oding)である。
従来のサンプルレベルのコントラスト法はデータ拡張法に大きく依存するが,SAICLはデータ拡張を行わず,自己管理と教師付きの両方で優れた性能を示す。
クロスエントロピーと対照的な目的を組み合わせることで、SAICLは推論コストを損なうことなく、他の最先端モデルと同等の知識追跡とドロップアウト予測性能を達成した。
関連論文リスト
- Towards Robust Recommendation via Decision Boundary-aware Graph Contrastive Learning [25.514007761856632]
グラフコントラスト学習(GCL)は、データ間隔によるバイアスの低減効果により、レコメンデータシステムにおいて注目を集めている。
これらの手法は, 動的学習過程における意味的不変性と難易度とのバランスをとるのに苦慮していると論じる。
本稿では,モデル能力の進化に伴い,コントラッシブペアのセマンティック不変性を効果的に維持し,動的に適応する新しいGCLベースのレコメンデーションフレームワークRGCLを提案する。
論文 参考訳(メタデータ) (2024-07-14T13:03:35Z) - CELA: Cost-Efficient Language Model Alignment for CTR Prediction [71.85120354973073]
CTR(Click-Through Rate)予測は、レコメンダシステムにおいて最重要位置を占める。
最近の取り組みは、プレトレーニング言語モデル(PLM)を統合することでこれらの課題を緩和しようとしている。
CTR予測のためのtextbfCost-textbfEfficient textbfLanguage Model textbfAlignment (textbfCELA)を提案する。
論文 参考訳(メタデータ) (2024-05-17T07:43:25Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Disentangled Representation Learning with Transmitted Information Bottleneck [57.22757813140418]
textbfDisTIB (textbfTransmitted textbfInformation textbfBottleneck for textbfDisd representation learning) は情報圧縮と保存のバランスを保った新しい目的である。
論文 参考訳(メタデータ) (2023-11-03T03:18:40Z) - IDRNet: Intervention-Driven Relation Network for Semantic Segmentation [34.09179171102469]
同時進行の視覚パターンは、画素関係モデリングが密接な予測タスクを促進することを示唆している。
印象的な結果にもかかわらず、既存のパラダイムは、しばしば不適切または効果的な文脈情報集約に悩まされる。
我々は,textbfIntervention-textbfDriven textbfRelation textbfNetworkを提案する。
論文 参考訳(メタデータ) (2023-10-16T18:37:33Z) - STS-CCL: Spatial-Temporal Synchronous Contextual Contrastive Learning
for Urban Traffic Forecasting [4.947443433688782]
本研究は、高度なコントラスト学習を採用し、新しい時空間コントラスト学習(STS-CCL)モデルを提案する。
STS-CCLコントラスト学習モデルに基づく予測器の構築は,既存のトラフィック予測ベンチマークよりも優れた性能を発揮することを示す実験と評価を行った。
論文 参考訳(メタデータ) (2023-07-05T03:47:28Z) - Mitigating Data Sparsity for Short Text Topic Modeling by Topic-Semantic
Contrastive Learning [19.7066703371736]
トピック・セマンティック・コントラスト・トピック・モデル(TSCTM)を提案する。
我々のTSCTMは、データ拡張の可用性に関わらず最先端のベースラインを上回り、高品質なトピックやトピックの分布を生成します。
論文 参考訳(メタデータ) (2022-11-23T11:33:43Z) - Adversarial Training with Complementary Labels: On the Benefit of
Gradually Informative Attacks [119.38992029332883]
不完全な監督を伴う敵の訓練は重要であるが、注意は限られている。
我々は、徐々に情報的攻撃を用いた新しい学習戦略を提案する。
提案手法の有効性を,ベンチマークデータセットを用いて実証する実験を行った。
論文 参考訳(メタデータ) (2022-11-01T04:26:45Z) - SAIS: Supervising and Augmenting Intermediate Steps for Document-Level
Relation Extraction [51.27558374091491]
本稿では,関係抽出のための中間ステップ(SAIS)を監督し,拡張することにより,関連コンテキストやエンティティタイプをキャプチャするモデルを明示的に教えることを提案する。
そこで本提案手法は,より効果的な管理を行うため,より優れた品質の関係を抽出するだけでなく,それに対応する証拠をより正確に抽出する。
論文 参考訳(メタデータ) (2021-09-24T17:37:35Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。