論文の概要: Survey of Loss Augmented Knowledge Tracing
- arxiv url: http://arxiv.org/abs/2504.15163v1
- Date: Mon, 21 Apr 2025 15:09:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-29 14:50:23.531814
- Title: Survey of Loss Augmented Knowledge Tracing
- Title(参考訳): 損失増大した知識トレーシングの実態調査
- Authors: Altun Shukurlu,
- Abstract要約: 本稿では,高度な損失関数を用いて学習したディープラーニングに基づく知識追跡(DKT)アルゴリズムについてレビューする。
本稿では,Bi-CLKT,CL4KT,SP-CLKT,CoSKT,予測一貫性DKTなどの対照的な知識追跡アルゴリズムについて議論する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The training of artificial neural networks is heavily dependent on the careful selection of an appropriate loss function. While commonly used loss functions, such as cross-entropy and mean squared error (MSE), generally suffice for a broad range of tasks, challenges often emerge due to limitations in data quality or inefficiencies within the learning process. In such circumstances, the integration of supplementary terms into the loss function can serve to address these challenges, enhancing both model performance and robustness. Two prominent techniques, loss regularization and contrastive learning, have been identified as effective strategies for augmenting the capacity of loss functions in artificial neural networks. Knowledge tracing is a compelling area of research that leverages predictive artificial intelligence to facilitate the automation of personalized and efficient educational experiences for students. In this paper, we provide a comprehensive review of the deep learning-based knowledge tracing (DKT) algorithms trained using advanced loss functions and discuss their improvements over prior techniques. We discuss contrastive knowledge tracing algorithms, such as Bi-CLKT, CL4KT, SP-CLKT, CoSKT, and prediction-consistent DKT, providing performance benchmarks and insights into real-world deployment challenges. The survey concludes with future research directions, including hybrid loss strategies and context-aware modeling.
- Abstract(参考訳): ニューラルネットワークのトレーニングは、適切な損失関数の慎重な選択に大きく依存する。
クロスエントロピーや平均二乗誤差(MSE)といった一般的に使用される損失関数は、幅広いタスクに適しているが、学習プロセスにおけるデータ品質の制限や非効率性のためにしばしば問題が発生する。
このような状況下では、損失関数への補足項の統合はこれらの課題に対処し、モデル性能とロバスト性の両方を向上させる。
損失正規化とコントラスト学習という2つの重要なテクニックは、ニューラルネットワークにおける損失関数の容量を増大させる効果的な戦略として認識されている。
知識追跡は、予測人工知能を活用して、学生のパーソナライズされた効率的な教育体験の自動化を促進する、魅力的な研究分野である。
本稿では,先進的損失関数を用いて学習したディープラーニングに基づく知識追跡(DKT)アルゴリズムの総合的なレビューと,それ以前の手法による改善について議論する。
本稿では,Bi-CLKT,CL4KT,SP-CLKT,CoSKT,予測一貫性DKTなどの対照的な知識追跡アルゴリズムについて論じる。
この調査は、ハイブリッド損失戦略やコンテキスト認識モデリングなど、今後の研究方向性で締めくくっている。
関連論文リスト
- AdvKT: An Adversarial Multi-Step Training Framework for Knowledge Tracing [64.79967583649407]
知識追跡(KT)は、学生の知識状態を監視し、質問シーケンスに対する反応をシミュレートする。
既存のKTモデルは通常、単一ステップのトレーニングパラダイムに従っており、大きなエラーの蓄積につながる。
本稿では,多段階KTタスクに着目した新しい知識追跡のための多段階学習フレームワーク(AdvKT)を提案する。
論文 参考訳(メタデータ) (2025-04-07T03:31:57Z) - Loss Functions in Deep Learning: A Comprehensive Review [3.8001666556614446]
損失関数はディープラーニングの中心であり、モデルがどのように学習し、さまざまなタスクで実行するかを形作る。
本稿では, 損失関数の包括的レビューを行い, 平均二乗誤差やクロスエントロピーといった基本的な指標を, 逆数や拡散損失などの高度な関数に適用する。
論文 参考訳(メタデータ) (2025-04-05T18:07:20Z) - Learning for Cross-Layer Resource Allocation in MEC-Aided Cell-Free Networks [71.30914500714262]
移動エッジコンピューティング(MEC)を援用したセルフリーネットワーク上でのクロスレイヤリソース割り当ては、データレートを促進するために、送信およびコンピューティングリソースを十分に活用することができる。
深層学習の観点からMEC支援セルフリーネットワークのサブキャリア配置とビームフォーミング最適化について検討した。
論文 参考訳(メタデータ) (2024-12-21T10:18:55Z) - Hyperspectral Image Analysis in Single-Modal and Multimodal setting
using Deep Learning Techniques [1.2328446298523066]
ハイパースペクトルイメージングは、その例外的なスペクトル分解能のため、土地利用とカバーの正確な分類を提供する。
しかし、高次元化と空間分解能の制限による課題は、その効果を妨げている。
本研究では,深層学習技術を用いて特徴を効率的に処理し,抽出し,データを統合的に分類することで,これらの課題に対処する。
論文 参考訳(メタデータ) (2024-03-03T15:47:43Z) - Fast and Efficient Local Search for Genetic Programming Based Loss
Function Learning [12.581217671500887]
本稿では,タスクとモデルに依存しない損失関数学習のためのメタラーニングフレームワークを提案する。
その結果, 学習した損失関数は, 収束性, サンプル効率, グラフ化, コンピュータビジョン, 自然言語処理問題に対する推論性能の向上をもたらすことがわかった。
論文 参考訳(メタデータ) (2024-03-01T02:20:04Z) - RoBoSS: A Robust, Bounded, Sparse, and Smooth Loss Function for
Supervised Learning [0.0]
そこで本研究では,教師あり学習のための,頑健で,有界で,スパースで,スムーズなロス関数(RoBoSS)を提案する。
未確認データの一般化のために,$mathcalL_rbss$-SVMという新しいロバストアルゴリズムを導入する。
提案した$mathcalL_rbss$-SVM を実世界の UCI と KEEL のデータセットで18ドルで評価した。
論文 参考訳(メタデータ) (2023-09-05T13:59:50Z) - Effect of Choosing Loss Function when Using T-batching for
Representation Learning on Dynamic Networks [0.0]
Tバッチは動的ネットワークモデルをトレーニングする上で貴重なテクニックである。
t-batchingで使用する訓練損失関数の制限について検討した。
これらの問題を克服する2つの代替損失関数を提案し、結果としてトレーニング性能が向上する。
論文 参考訳(メタデータ) (2023-08-13T23:34:36Z) - Evaluating the structure of cognitive tasks with transfer learning [67.22168759751541]
本研究では,脳波復号処理における深層学習表現の伝達可能性について検討した。
最近リリースされた2つのEEGデータセット上で、最先端デコードモデルを用いて広範な実験を行う。
論文 参考訳(メタデータ) (2023-07-28T14:51:09Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Learning Adaptive Loss for Robust Learning with Noisy Labels [59.06189240645958]
ロバスト損失は、堅牢な学習問題を扱うための重要な戦略である。
本稿では,強靭なハイパーチューニングが可能なメタ学習手法を提案する。
4種類のSOTA損失関数は, 最小化, 一般利用, 有効性を示す。
論文 参考訳(メタデータ) (2020-02-16T00:53:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。