論文の概要: Consistency and Monotonicity Regularization for Neural Knowledge Tracing
- arxiv url: http://arxiv.org/abs/2105.00607v1
- Date: Mon, 3 May 2021 02:36:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 22:35:58.991878
- Title: Consistency and Monotonicity Regularization for Neural Knowledge Tracing
- Title(参考訳): 神経知識追跡のための一貫性と単調性正規化
- Authors: Seewoo Lee, Youngduck Choi, Juneyoung Park, Byungsoo Kim and Jinwoo
Shin
- Abstract要約: 人間の知識獲得を追跡する知識追跡(KT)は、オンライン学習と教育におけるAIの中心的なコンポーネントです。
本稿では, 新たなデータ拡張, 代替, 挿入, 削除の3種類と, 対応する正規化損失を提案する。
さまざまなKTベンチマークに関する広範な実験は、私たちの正規化スキームがモデルのパフォーマンスを一貫して改善することを示しています。
- 参考スコア(独自算出の注目度): 50.92661409499299
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge Tracing (KT), tracking a human's knowledge acquisition, is a
central component in online learning and AI in Education. In this paper, we
present a simple, yet effective strategy to improve the generalization ability
of KT models: we propose three types of novel data augmentation, coined
replacement, insertion, and deletion, along with corresponding regularization
losses that impose certain consistency or monotonicity biases on the model's
predictions for the original and augmented sequence. Extensive experiments on
various KT benchmarks show that our regularization scheme consistently improves
the model performances, under 3 widely-used neural networks and 4 public
benchmarks, e.g., it yields 6.3% improvement in AUC under the DKT model and the
ASSISTmentsChall dataset.
- Abstract(参考訳): 人間の知識獲得を追跡する知識追跡(KT)は、教育におけるオンライン学習とAIの中心的なコンポーネントである。
本稿では,KTモデルの一般化能力を改善するための,単純かつ効果的な戦略を提案する。本論文では,新しいデータ拡張,代用,挿入,削除の3種類の方法と,モデルが生成および拡張シーケンスに対する予測に対して一定の整合性あるいは単調性バイアスを課す正則化損失を提案する。
さまざまなKTベンチマークに対する大規模な実験により、我々の正規化スキームは、DKTモデルとASSISTmentsChallデータセットの下で3つの広く使用されているニューラルネットワークと4つの公開ベンチマークの下で、モデルパフォーマンスを継続的に改善している。
関連論文リスト
- The Surprising Effectiveness of Test-Time Training for Abstract Reasoning [64.36534512742736]
モデル推論能力向上のためのメカニズムとして,テストタイムトレーニング(TTT)の有効性を検討する。
TTTはARCタスクのパフォーマンスを大幅に改善し、ベースとなる微調整モデルと比較して最大6倍の精度向上を実現した。
本研究は,ニューラルネットワークモデルにおける抽象的推論改善の道筋として,明示的な記号探索が唯一の道ではないことを示唆している。
論文 参考訳(メタデータ) (2024-11-11T18:59:45Z) - Contrastive Learning for Character Detection in Ancient Greek Papyri [0.6361669177741777]
本論文は,ギリシャ文字認識におけるコントラスト学習手法であるSimCLRの有効性について考察する。
SimCLRの事前トレーニングはAlpubデータセット上で行われ、続いてICDARデータセット上で微調整が行われる。
実験の結果,SimCLRは文字認識タスクのベースラインを上回りません。
論文 参考訳(メタデータ) (2024-09-16T10:41:29Z) - On Machine Learning Approaches for Protein-Ligand Binding Affinity Prediction [2.874893537471256]
本研究では,タンパク質-リガンド結合親和性予測における古典的木モデルと高度なニューラルネットワークの性能を評価する。
2次元モデルと3次元モデルを組み合わせることで、現在の最先端のアプローチを超えて、アクティブな学習結果が向上することを示す。
論文 参考訳(メタデータ) (2024-07-15T13:06:00Z) - Enhancing Robustness of Vision-Language Models through Orthogonality Learning and Self-Regularization [77.62516752323207]
そこで本研究では,事前訓練した重みを効率よく微調整する直交微調整法を導入し,頑健さと一般化の強化を実現した。
自己正規化戦略は、OrthSRと呼ばれるVLMのゼロショット一般化の観点から安定性を維持するためにさらに活用される。
筆者らはCLIPとCoOpを再検討し,少数の画像のクラスフィシエーションシナリオにおけるモデルの改善を効果的に行う。
論文 参考訳(メタデータ) (2024-07-11T10:35:53Z) - CuSINeS: Curriculum-driven Structure Induced Negative Sampling for Statutory Article Retrieval [1.3723120574076126]
CuSINeS は Statutory Article Retrieval (SAR) の性能向上のための負サンプリング手法である
カリキュラムベースのネガティブサンプリング戦略を採用し、モデルがより容易なネガティブにフォーカスできるようにする。
また、サンプルの難易度を評価するために、法令の構造的組織から得られた階層的およびシーケンシャルな情報を利用する。
論文 参考訳(メタデータ) (2024-03-31T07:49:23Z) - DiTMoS: Delving into Diverse Tiny-Model Selection on Microcontrollers [34.282971510732736]
我々は、セレクタ分類器アーキテクチャを備えた新しいDNNトレーニングおよび推論フレームワークであるDiTMoSを紹介する。
弱いモデルの合成は高い多様性を示すことができ、それらの結合は精度の上限を大幅に高めることができる。
我々は,Nucleo STM32F767ZIボード上にDiTMoSをデプロイし,人間の活動認識,キーワードスポッティング,感情認識のための時系列データセットに基づいて評価する。
論文 参考訳(メタデータ) (2024-03-14T02:11:38Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - An Empirical Study on Distribution Shift Robustness From the Perspective
of Pre-Training and Data Augmentation [91.62129090006745]
本稿では,事前学習とデータ拡張の観点から分布シフト問題を考察する。
我々は,事前学習とデータ拡張に焦点を当てた,最初の総合的な実証的研究を行った。
論文 参考訳(メタデータ) (2022-05-25T13:04:53Z) - Enhancing Knowledge Tracing via Adversarial Training [5.461665809706664]
本研究では,学生の知識習得を時間とともに追跡することを目的とした知識追跡問題(KT)について検討する。
KTの最近の進歩は、KTの性能を改善するためにディープニューラルネットワーク(DNN)の探索に集中している。
我々は,効率的なATベースKT法(ATKT)を提案し,KTモデルの一般化を強化し,KTの限界を推し進める。
論文 参考訳(メタデータ) (2021-08-10T03:35:13Z) - CASTLE: Regularization via Auxiliary Causal Graph Discovery [89.74800176981842]
因果構造学習(CASTLE)の正規化を導入し,変数間の因果関係を共同学習することでニューラルネットワークの正規化を提案する。
CASTLEは因果的隣り合いを持つ因果的DAGの特徴のみを効率的に再構成する一方、再構成ベース正規化器は全ての入力特徴を過度に再構成する。
論文 参考訳(メタデータ) (2020-09-28T09:49:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。