論文の概要: Equity and Fairness of Bayesian Knowledge Tracing
- arxiv url: http://arxiv.org/abs/2205.02333v1
- Date: Wed, 4 May 2022 21:37:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-06 15:21:43.159326
- Title: Equity and Fairness of Bayesian Knowledge Tracing
- Title(参考訳): ベイズ知識追跡の質と公正性
- Authors: Sebastian Tschiatschek and Maria Knobelsdorf and Adish Singla
- Abstract要約: 知識追跡モデルから得られたキュリキュラの公平性と公平性を考察する。
我々は,従来のBKTモデルより,我々のモデルから派生したキュリキュラの方が効率的かつ公平であることを示す。
- 参考スコア(独自算出の注目度): 29.709072913185892
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the equity and fairness of curricula derived from Knowledge
Tracing models. We begin by defining a unifying notion of an equitable tutoring
system as a system that achieves maximum possible knowledge in minimal time for
each student interacting with it. Realizing perfect equity requires tutoring
systems that can provide individualized curricula per student. In particular,
we investigate the design of equitable tutoring systems that derive their
curricula from Knowledge Tracing models. We first show that many existing
models, including classical Bayesian Knowledge Tracing (BKT) and Deep Knowledge
Tracing (DKT), and their derived curricula can fall short of achieving
equitable tutoring. To overcome this issue, we then propose a novel model,
Bayesian-Bayesian Knowledge Tracing (BBKT), that naturally enables online
individualization and, thereby, more equitable tutoring. We demonstrate that
curricula derived from our model are more effective and equitable than those
derived from classical BKT models. Furthermore, we highlight that improving
models with a focus on the fairness of next-step predictions might be
insufficient to develop equitable tutoring systems.
- Abstract(参考訳): 知識追跡モデルから得られたカリキュラムの公平性と公平性を考察する。
まず,公平な指導システムの統一的な概念を,各学生が相互作用する時間を最小限に抑えるシステムとして定義することから始める。
パーフェクトエクイティの実現には、学生一人当たりの個別のカリキュラムを提供するための教育システムが必要である。
特に,そのカリキュラムを知識追跡モデルから導出する等式教育システムの設計について検討する。
まず,古典的ベイズ的知識追跡 (BKT) や深部知識追跡 (DKT) を含む多くの既存モデルと,そこから派生したカリキュラムが,等しく学習することができないことを示す。
この問題を克服するために,オンラインの個人化を自然に可能とし,それによってより公平な学習を可能にする新しいモデル,Bayesian-Bayesian Knowledge Tracing (BBKT)を提案する。
古典的bktモデルより,本モデルから導出するカリキュラムの方が効率的かつ等価であることを示す。
さらに,次段階予測の公平性を重視したモデル改善は,等質的学習システムを開発するには不十分である可能性があることを強調する。
関連論文リスト
- KBAlign: Efficient Self Adaptation on Specific Knowledge Bases [75.78948575957081]
大規模言語モデル(LLM)は通常、知識材料を瞬時に活用するために、検索強化世代に依存している。
本稿では,知識ベースを含む下流タスクへの効率的な適応を目的としたKBAlignを提案する。
提案手法は,Q&Aペアやリビジョン提案などの自己注釈付きデータを用いて反復学習を行い,モデルが知識内容を効率的に把握できるようにする。
論文 参考訳(メタデータ) (2024-11-22T08:21:03Z) - Gradual Learning: Optimizing Fine-Tuning with Partially Mastered Knowledge in Large Language Models [51.20499954955646]
大規模言語モデル(LLM)は、事前学習期間中に大量のテキストコーパスから膨大な量の知識を取得する。
微調整や推論のような後段では、モデルは初期訓練でカバーされていない知識に遭遇する可能性がある。
本稿では,モデル全体のテスト精度と知識保持性を改善するための2段階の微調整戦略を提案する。
論文 参考訳(メタデータ) (2024-10-08T08:35:16Z) - Leveraging Pedagogical Theories to Understand Student Learning Process with Graph-based Reasonable Knowledge Tracing [11.082908318943248]
本稿では,これらの問題に対処するためのグラフベースの合理的知識追跡手法GRKTを紹介する。
本稿では,知識検索,記憶強化,知識学習・鍛造の3段階モデリングプロセスを提案する。
論文 参考訳(メタデータ) (2024-06-07T10:14:30Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - From Mimicking to Integrating: Knowledge Integration for Pre-Trained
Language Models [55.137869702763375]
本稿では,新しいPLM再利用パラダイムであるKnowledge Integration(KI)について検討する。
KIは,異なる分類問題に特化している教師-PLMの知識を,多種多様な学生モデルにマージすることを目的としている。
次に,モデル不確かさを意識した知識統合(MUKI)フレームワークを設計し,学生の黄金の監督を回復する。
論文 参考訳(メタデータ) (2022-10-11T07:59:08Z) - Model Uncertainty-Aware Knowledge Amalgamation for Pre-Trained Language
Models [37.88287077119201]
PLMのための新しいモデル再利用パラダイムであるKnowledge Amalgamation(KA)を提案する。
KAは、人間のアノテーションを使用せずに、異なる分類問題に特化している異なる教師-PLMの知識を、汎用的な学生モデルにマージすることを目的としている。
実験の結果,MUKAはベンチマークデータセットのベースラインよりも大幅に改善されていることがわかった。
論文 参考訳(メタデータ) (2021-12-14T12:26:24Z) - FairALM: Augmented Lagrangian Method for Training Fair Models with
Little Regret [42.66567001275493]
現在、我々がモデルに提示するデータセットのバイアスのため、公正な公開トレーニングが不公平なモデルにつながることは受け入れられている。
そこで本研究では,モデルのトレーニング中に公平性を同時に課すメカニズムについて検討する。
論文 参考訳(メタデータ) (2020-04-03T03:18:53Z) - Fairness by Explicability and Adversarial SHAP Learning [0.0]
本稿では,外部監査役の役割とモデル説明可能性を強調するフェアネスの新たな定義を提案する。
逆代理モデルのSHAP値から構築した正規化を用いてモデルバイアスを緩和するフレームワークを開発する。
合成データセット、UCIアダルト(国勢調査)データセット、実世界の信用評価データセットである。
論文 参考訳(メタデータ) (2020-03-11T14:36:34Z) - Context-aware Non-linear and Neural Attentive Knowledge-based Models for
Grade Prediction [12.592903558338444]
コース選択の過程において,学生と指導員を支援できるため,学生がまだ受け取っていない将来のコースのグレード予測が重要である。
将来のコースにおける生徒の成績を正確に予測するための成功したアプローチの1つは、累積的知識ベース回帰モデル(CKRM)である。
CKRMは、学生の成績を、自分の知識状態と対象コースとの類似性として予測する浅い線形モデルを学ぶ。
本研究では,学習者の事前学習情報から,学習者の知識状態をより正確に推定できる文脈認識型非線形・ニューラル注意モデルを提案する。
論文 参考訳(メタデータ) (2020-03-09T20:20:48Z) - Learning From Multiple Experts: Self-paced Knowledge Distillation for
Long-tailed Classification [106.08067870620218]
我々は,LFME(Learning From Multiple Experts)と呼ばれる自己評価型知識蒸留フレームワークを提案する。
提案するLFMEフレームワークは,複数の'Experts'からの知識を集約して,統一された学生モデルを学ぶ。
提案手法は,最先端の手法に比べて優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-01-06T12:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。