論文の概要: Forgetting-aware Linear Bias for Attentive Knowledge Tracing
- arxiv url: http://arxiv.org/abs/2309.14796v1
- Date: Tue, 26 Sep 2023 09:48:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 14:13:48.286677
- Title: Forgetting-aware Linear Bias for Attentive Knowledge Tracing
- Title(参考訳): 注意的知識追跡のための予測型線形バイアス
- Authors: Yoonjin Im, Eunseong Choi, Heejin Kook, Jongwuk Lee
- Abstract要約: 本稿では,リニアバイアスとして忘れる動作を反映するフォーッティング対応リニアバイアス(FoLiBi)を提案する。
複数のKTモデルでプラグインされたFoLiBiは、4つのベンチマークデータセット上の最先端KTモデルよりも、AUCで最大2.58%改善されている。
- 参考スコア(独自算出の注目度): 7.87348193562399
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Knowledge Tracing (KT) aims to track proficiency based on a question-solving
history, allowing us to offer a streamlined curriculum. Recent studies actively
utilize attention-based mechanisms to capture the correlation between questions
and combine it with the learner's characteristics for responses. However, our
empirical study shows that existing attention-based KT models neglect the
learner's forgetting behavior, especially as the interaction history becomes
longer. This problem arises from the bias that overprioritizes the correlation
of questions while inadvertently ignoring the impact of forgetting behavior.
This paper proposes a simple-yet-effective solution, namely Forgetting-aware
Linear Bias (FoLiBi), to reflect forgetting behavior as a linear bias. Despite
its simplicity, FoLiBi is readily equipped with existing attentive KT models by
effectively decomposing question correlations with forgetting behavior. FoLiBi
plugged with several KT models yields a consistent improvement of up to 2.58%
in AUC over state-of-the-art KT models on four benchmark datasets.
- Abstract(参考訳): KT(Knowledge Tracing)は,質問解決履歴に基づいて習熟度を追跡することを目的として,合理化されたカリキュラムを提供する。
最近の研究は、注意に基づくメカニズムを積極的に活用し、質問間の相関を捉え、学習者の応答特性と組み合わせている。
しかしながら,既存の注意に基づくKTモデルは,特にインタラクション履歴が長くなるにつれて,学習者の忘れ行動を無視している。
この問題は、忘れることの影響を不注意に無視しながら、質問の相関を過度に優先するバイアスから生じる。
本稿では,忘れる動作を線形バイアスとして反映する,単純なイエト効率な解法,すなわちrelookting-aware linear bias (folibi)を提案する。
その単純さにもかかわらず、FoLiBiは既存の注意深いKTモデルを備えており、問題相関と忘れる動作を効果的に分解する。
複数のKTモデルでプラグインされたFoLiBiは、4つのベンチマークデータセット上の最先端KTモデルよりも、AUCで最大2.58%改善されている。
関連論文リスト
- SINKT: A Structure-Aware Inductive Knowledge Tracing Model with Large Language Model [64.92472567841105]
知識追跡(KT)は、学生が次の質問に正しく答えるかどうかを判断することを目的としている。
大規模言語モデルを用いた構造認識帰納的知識追跡モデル(SINKT)
SINKTは、学生の知識状態と質問表現とを相互作用させることで、対象の質問に対する学生の反応を予測する。
論文 参考訳(メタデータ) (2024-07-01T12:44:52Z) - Measuring and Improving Attentiveness to Partial Inputs with Counterfactuals [91.59906995214209]
我々は,新しい評価手法であるCAT(Facterfactual Attentiveness Test)を提案する。
CATは、入力の一部を別の例から別の例に置き換えることで、予測を変更する注意深いモデルを期待することで、反事実を使用する。
実験データの精度が向上する一方, GPT3 は実演回数の増加により注意力の低下がみられた。
論文 参考訳(メタデータ) (2023-11-16T06:27:35Z) - FACTS: First Amplify Correlations and Then Slice to Discover Bias [17.244153084361102]
コンピュータビジョンデータセットは、しばしばタスク関連ラベルと(学習しやすい)潜在タスク関連属性の間の急激な相関を含んでいる。
このようなデータセットでトレーニングされたモデルは、"ショートカット"を学び、相関が保たないデータのバイアス分散スライスを過小評価する。
本稿では,まず相関を増幅し,次にバイアスを識別し,下流のバイアス軽減戦略について報告する。
論文 参考訳(メタデータ) (2023-09-29T17:41:26Z) - Do We Fully Understand Students' Knowledge States? Identifying and
Mitigating Answer Bias in Knowledge Tracing [12.31363929361146]
知識追跡は、概念に関連した質問との学習相互作用を通じて、学生の進化する知識状態を監視することを目的としている。
解答バイアスの一般的な現象、すなわち、各質問に対する正解と誤解の高度に不均衡な分布がある。
既存のモデルは、KTで高い予測性能を達成するためのショートカットとして解答バイアスを記憶する傾向がある。
論文 参考訳(メタデータ) (2023-08-15T13:56:29Z) - Stubborn Lexical Bias in Data and Models [50.79738900885665]
我々は、データに基づいてトレーニングされたモデルに、データのスプリアスパターンが現れるかどうかを調べるために、新しい統計手法を用いる。
トレーニングデータに*reweight*に最適化アプローチを適用し、数千のスプリアス相関を低減します。
驚くべきことに、この方法ではトレーニングデータの語彙バイアスを低減できますが、トレーニングされたモデルで対応するバイアスの強い証拠がまだ見つかっていません。
論文 参考訳(メタデータ) (2023-06-03T20:12:27Z) - Continual Learning in the Presence of Spurious Correlation [23.999136417157597]
標準的な連続学習アルゴリズムは、前も後ろも、あるタスクから別のタスクへバイアスを転送できることを示す。
グループクラスバランスグレーディサンプリング (Group-class Balanced Greedy Sampling, BGS) と呼ばれる,デバイアス対応連続学習のためのプラグイン手法を提案する。
論文 参考訳(メタデータ) (2023-03-21T14:06:12Z) - ACP++: Action Co-occurrence Priors for Human-Object Interaction
Detection [102.9428507180728]
ヒューマン・オブジェクト・インタラクション(HOI)検出のタスクにおける一般的な問題は、多数のHOIクラスが少数のラベル付き例しか持たないことである。
我々は、人間と物体の相互作用の間に自然の相関関係と反相関が存在することを観察した。
我々は、これらの先行知識を学習し、特に稀なクラスにおいて、より効果的な訓練に活用する手法を提案する。
論文 参考訳(メタデータ) (2021-09-09T06:02:50Z) - Mind Your Outliers! Investigating the Negative Impact of Outliers on
Active Learning for Visual Question Answering [71.15403434929915]
視覚的質問応答のタスクにおいて、5つのモデルと4つのデータセットにまたがって、多種多様な能動的学習アプローチがランダム選択を上回りません。
アクティブな学習手法が好まれるが、モデルは学習に失敗する例の集まりである。
本研究では,アクティブ学習プールにおける集団外乱の減少に伴い,アクティブ学習サンプル効率が著しく向上することを示す。
論文 参考訳(メタデータ) (2021-07-06T00:52:11Z) - GIKT: A Graph-based Interaction Model for Knowledge Tracing [36.07642261246016]
上記の問題に対処するために,知識追跡のためのグラフベースインタラクションモデルを提案する。
より具体的には、GIKTはグラフ畳み込みネットワーク(GCN)を使用して、質問スキル相関を実質的に組み込んでいる。
3つのデータセットの実験では、GIKTが新しい最先端のパフォーマンスを実現し、少なくとも1%の絶対AUC改善を実現している。
論文 参考訳(メタデータ) (2020-09-13T12:50:32Z) - Context-Aware Attentive Knowledge Tracing [21.397976659857793]
本稿では、フレキシブルアテンションに基づくニューラルネットワークモデルと、新しい解釈可能なモデルコンポーネントを結合した注意知識追跡手法を提案する。
AKTは、学習者の将来の応答と過去の応答に対する評価質問を関連付ける新しいモノトニックアテンションメカニズムを使用する。
AKT は,既存の KT 手法(場合によっては AUC で最大6% 以上)よりも,将来の学習者応答の予測に優れることを示す。
論文 参考訳(メタデータ) (2020-07-24T02:45:43Z) - On Disentangled Representations Learned From Correlated Data [59.41587388303554]
相関データに対する最も顕著な絡み合うアプローチの挙動を解析することにより、現実のシナリオにギャップを埋める。
本研究では,データセットの体系的相関が学習され,潜在表現に反映されていることを示す。
また、トレーニング中の弱い監督や、少数のラベルで事前訓練されたモデルを修正することで、これらの潜伏相関を解消する方法を実証する。
論文 参考訳(メタデータ) (2020-06-14T12:47:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。