論文の概要: Automated Knowledge Component Generation for Interpretable Knowledge Tracing in Coding Problems
- arxiv url: http://arxiv.org/abs/2502.18632v3
- Date: Mon, 20 Oct 2025 04:05:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.206132
- Title: Automated Knowledge Component Generation for Interpretable Knowledge Tracing in Coding Problems
- Title(参考訳): 符号化問題における解釈可能な知識追跡のための知識コンポーネントの自動生成
- Authors: Zhangqi Duan, Nigel Fernandez, Arun Balajiee Lekshmi Narayanan, Mohammad Hassany, Rafaella Sampaio de Alencar, Peter Brusilovsky, Bita Akram, Andrew Lan,
- Abstract要約: 知識コンポーネント(KC)は、生徒の学習をモデル化し、きめ細かいスキルの熟達レベルを追跡するのに役立つ問題にマッピングされる。
我々は、KC生成とタグ付けのための自動LLMベースのパイプラインを、オープンエンドプログラミング問題に対して提示する。
KCGen-KTは,今後の学生の反応予測において,既存のKT手法や人書きKCよりも優れていた。
- 参考スコア(独自算出の注目度): 2.801976382946474
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge components (KCs) mapped to problems help model student learning, tracking their mastery levels on fine-grained skills thereby facilitating personalized learning and feedback in online learning platforms. However, crafting and tagging KCs to problems, traditionally performed by human domain experts, is highly labor intensive. We present an automated, LLM-based pipeline for KC generation and tagging for open-ended programming problems. We also develop an LLM-based knowledge tracing (KT) framework to leverage these LLM-generated KCs, which we refer to as KCGen-KT. We conduct extensive quantitative and qualitative evaluations on two real-world student code submission datasets in different programming languages.We find that KCGen-KT outperforms existing KT methods and human-written KCs on future student response prediction. We investigate the learning curves of generated KCs and show that LLM-generated KCs result in a better fit than human written KCs under a cognitive model. We also conduct a human evaluation with course instructors to show that our pipeline generates reasonably accurate problem-KC mappings.
- Abstract(参考訳): 知識コンポーネント(KC)は、生徒の学習をモデル化し、きめ細かいスキルの習得レベルを追跡することで、オンライン学習プラットフォームにおける個人化された学習とフィードバックを促進する。
しかしながら、人間ドメインの専門家が伝統的に行ってきた問題に対してKCを製作し、タグ付けすることは、非常に労働集約的である。
我々は、KC生成とタグ付けのための自動LLMベースのパイプラインを、オープンエンドプログラミング問題に対して提示する。
また、これらのLLM生成KCを活用するためのLLMベースの知識トレース(KT)フレームワークを開発し、これをKCGen-KTと呼ぶ。
KCGen-KTは、既存のKT法や人書きKCよりも、将来の学生の反応予測に優れていることが判明した。
生成したKCの学習曲線について検討し,LLM生成したKCが認知モデル下で記述されたKCよりも適合していることを示す。
また、コースインストラクターと人間による評価を行い、パイプラインが合理的に正確な問題-KCマッピングを生成することを示す。
関連論文リスト
- MAS-KCL: Knowledge component graph structure learning with large language model-based agentic workflow [12.083628171166733]
正確なKCグラフは、特定のKC上での学習者の貧弱なパフォーマンスの根本原因を特定するのに役立てることができる。
我々は,大規模言語モデルによって駆動されるマルチエージェントシステムを用いたMAS-KCLというKCグラフ構造学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2025-05-20T09:32:47Z) - KCluster: An LLM-based Clustering Approach to Knowledge Component Discovery [0.26626950367610397]
KClusterは,一致した質問のクラスタを識別する新しいKC探索アルゴリズムである。
我々は,LLMが質問類似度を効果的に測定できることを示す。
KClusterは記述的なKCラベルを生成し、最高の専門家設計モデルよりも生徒のパフォーマンスを予測するKCモデルを発見する。
論文 参考訳(メタデータ) (2025-05-09T23:47:58Z) - Sparse Binary Representation Learning for Knowledge Tracing [0.0]
知識追跡モデル(KT)は、学生の過去の相互作用に基づいて将来のパフォーマンスを予測することを目的としている。
既存のKTモデルは、エクササイズに関連する人間定義の知識概念にのみ依存している。
KT モデル SBRKT (Sparse Binary Representation KT) を提案する。
論文 参考訳(メタデータ) (2025-01-17T00:45:10Z) - KBAlign: Efficient Self Adaptation on Specific Knowledge Bases [73.34893326181046]
大規模言語モデル(LLM)は通常、知識材料を瞬時に活用するために、検索強化世代に依存している。
本稿では,知識ベースを含む下流タスクへの効率的な適応を目的としたKBAlignを提案する。
提案手法は,Q&Aペアやリビジョン提案などの自己注釈付きデータを用いて反復学習を行い,モデルが知識内容を効率的に把握できるようにする。
論文 参考訳(メタデータ) (2024-11-22T08:21:03Z) - Automated Knowledge Concept Annotation and Question Representation Learning for Knowledge Tracing [59.480951050911436]
自動知識概念アノテーションと質問表現学習のためのフレームワークであるKCQRLを提案する。
実世界の2つの学習データセット上で、15KTアルゴリズムにまたがるKCQRLの有効性を実証する。
論文 参考訳(メタデータ) (2024-10-02T16:37:19Z) - Chain-of-Knowledge: Integrating Knowledge Reasoning into Large Language Models by Learning from Knowledge Graphs [55.317267269115845]
Chain-of-Knowledge (CoK)は知識推論のための包括的なフレームワークである。
CoKにはデータセット構築とモデル学習の両方のための方法論が含まれている。
KnowReasonで広範な実験を行う。
論文 参考訳(メタデータ) (2024-06-30T10:49:32Z) - Automated Generation and Tagging of Knowledge Components from Multiple-Choice Questions [2.6644846626273457]
我々はGPT-4を用いて、化学とE-ラーニングにおけるマルチチョイス質問(MCQ)のためのKCを生成する。
我々は,Large Language Model (LLM) によるKCと人間によるKCの相違について分析した。
また,その内容に基づいて類似したKCをクラスタリングする帰納的アルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-05-30T22:57:49Z) - From human experts to machines: An LLM supported approach to ontology
and knowledge graph construction [0.0]
大規模言語モデル(LLM)は、人間のような自然言語を理解し、生成する能力で最近人気を集めている。
本研究は,オープンソースLLMによって促進されるKGの半自動構築について考察する。
論文 参考訳(メタデータ) (2024-03-13T08:50:15Z) - A Knowledge-Injected Curriculum Pretraining Framework for Question Answering [70.13026036388794]
本稿では,知識に基づく質問応答タスクの総合的なKG学習と活用を実現するための一般知識注入型カリキュラム事前学習フレームワーク(KICP)を提案する。
KIモジュールはまずKG中心の事前学習コーパスを生成してLMに知識を注入し、プロセスを3つの重要なステップに一般化する。
KAモジュールは、アダプタを備えたLMで生成されたコーパスから知識を学習し、元の自然言語理解能力を維持できる。
CRモジュールは人間の推論パターンに従って3つのコーパスを構築する。
論文 参考訳(メタデータ) (2024-03-11T03:42:03Z) - A Survey on Knowledge Distillation of Large Language Models [99.11900233108487]
知識蒸留(KD)は、高度な能力をオープンソースモデルに転送するための重要な方法論である。
本稿では,大規模言語モデル(LLM)の領域におけるKDの役割を包括的に調査する。
論文 参考訳(メタデータ) (2024-02-20T16:17:37Z) - KCTS: Knowledge-Constrained Tree Search Decoding with Token-Level
Hallucination Detection [48.067722381794]
大規模言語モデル (LLM) は、人間レベルの自然言語生成能力を示す。
幻覚問題と呼ばれる誤報を発生させる可能性があり、その展開に重大なリスクをもたらす。
KCTSと呼ばれる知識制約付き復号法を提案し、フリーズしたLMを誘導し、参照知識と整合したテキストを生成する。
論文 参考訳(メタデータ) (2023-10-13T12:12:34Z) - Knowledge-Driven CoT: Exploring Faithful Reasoning in LLMs for
Knowledge-intensive Question Answering [17.672572064705445]
CoT(Chain-of-Thought)を備えた大規模言語モデル(LLM)は、様々な下流タスクにおいて顕著な推論能力を示している。
我々は、外部知識との相互作用を通じてCoTの推論トレースを検証・修正する、KD-CoT(Knowled-Driven Chain-of-Thought)というフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-25T09:23:55Z) - KoLA: Carefully Benchmarking World Knowledge of Large Language Models [87.96683299084788]
我々は知識指向LLMアセスメントベンチマーク(KoLA)を構築した。
人間の認知を模倣して、知識関連能力の4段階の分類を形成し、19ドルのタスクをカバーします。
私たちは、LLMによって事前訓練されたコーパスであるウィキペディアと、継続的に収集された新興コーパスを使用して、目に見えないデータや進化する知識を扱う能力を評価します。
論文 参考訳(メタデータ) (2023-06-15T17:20:46Z) - Using Representation Expressiveness and Learnability to Evaluate
Self-Supervised Learning Methods [61.49061000562676]
本稿では,学習可能性を評価するためにCluster Learnability (CL)を導入する。
CLは、K-meansで表現をクラスタリングすることによって得られたラベルを予測するために訓練されたKNNのパフォーマンスで測定される。
CLは、他の競合する評価手法よりも分布内モデルの性能と相関することがわかった。
論文 参考訳(メタデータ) (2022-06-02T19:05:13Z) - Knowledgeable Salient Span Mask for Enhancing Language Models as
Knowledge Base [51.55027623439027]
我々は、モデルが構造化されていないテキストから、完全に自己教師された方法でより多くの知識を学習するのを助ける2つのソリューションを開発する。
最高の知識を得るために、私たちは、継続的事前学習における知識の完全な自己教師型学習を初めて探求します。
論文 参考訳(メタデータ) (2022-04-17T12:33:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。