論文の概要: Programming Knowledge Tracing: A Comprehensive Dataset and A New Model
- arxiv url: http://arxiv.org/abs/2112.08273v1
- Date: Sat, 11 Dec 2021 02:13:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 16:50:31.146681
- Title: Programming Knowledge Tracing: A Comprehensive Dataset and A New Model
- Title(参考訳): プログラミング知識のトレース:包括的なデータセットと新しいモデル
- Authors: Renyu Zhu, Dongxiang Zhang, Chengcheng Han, Ming Gao, Xuesong Lu,
Weining Qian, Aoying Zhou
- Abstract要約: 本稿では,学生の行動予測の精度を高めるために,拡張された文脈を利用する新しいモデルPDKTを提案する。
プログラミング問題埋め込みのための二部グラフを構築し,コード埋め込みのための事前学習モデルPLCodeBERTを改良した。
新しいデータセットBePKTの実験結果から,提案モデルがプログラミング知識の追跡において最先端の性能を確立することを示す。
- 参考スコア(独自算出の注目度): 26.63441910982382
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study knowledge tracing in the domain of programming
education and make two important contributions. First, we harvest and publish
so far the most comprehensive dataset, namely BePKT, which covers various
online behaviors in an OJ system, including programming text problems,
knowledge annotations, user-submitted code and system-logged events. Second, we
propose a new model PDKT to exploit the enriched context for accurate student
behavior prediction. More specifically, we construct a bipartite graph for
programming problem embedding, and design an improved pre-training model
PLCodeBERT for code embedding, as well as a double-sequence RNN model with
exponential decay attention for effective feature fusion. Experimental results
on the new dataset BePKT show that our proposed model establishes
state-of-the-art performance in programming knowledge tracing. In addition, we
verify that our code embedding strategy based on PLCodeBERT is complementary to
existing knowledge tracing models to further enhance their accuracy. As a side
product, PLCodeBERT also results in better performance in other
programming-related tasks such as code clone detection.
- Abstract(参考訳): 本稿では,プログラミング教育の領域における知識のトレースを研究し,二つの重要な貢献を行う。
まず,テキスト問題,知識アノテーション,ユーザ投稿コード,システムログイベントなど,OJシステムにおけるさまざまなオンライン動作を網羅した,最も包括的なデータセットであるBePKTを収集,公開する。
第2に,強化された文脈を利用して学生行動の正確な予測を行う新しいモデルpdktを提案する。
より具体的には、プログラミング問題埋め込みのための二部グラフを構築し、コード埋め込みのための改善された事前学習モデルPLCodeBERTと、効果的な特徴融合のための指数減衰注意を持つ二重系列RNNモデルを設計する。
新しいデータセットBePKTの実験結果から,提案モデルがプログラミング知識の追跡において最先端の性能を確立することを示す。
さらに,PLCodeBERTに基づくコード埋め込み戦略が既存の知識追跡モデルと相補的であることを確認し,その精度をさらに向上させる。
副産物として、PLCodeBERTはコードクローン検出などの他のプログラミング関連タスクのパフォーマンスも向上する。
関連論文リスト
- From Prediction to Application: Language Model-based Code Knowledge Tracing with Domain Adaptive Pre-Training and Automatic Feedback System with Pedagogical Prompting for Comprehensive Programming Education [2.932399587069876]
本稿では,言語モデルに基づくコード知識追跡(CodeLKT)を紹介する。
CodeLKTは、言語モデルに基づく知識追跡(LKT)のプログラミング教育への革新的な応用である。
論文 参考訳(メタデータ) (2024-08-31T01:36:38Z) - Personalized Programming Guidance based on Deep Programming Learning Style Capturing [9.152344993023503]
プログラミング学習スタイルを用いたプログラミング・エクササイズ・レコメンダ(PERS)という新しいモデルを提案する。
PERSは学習者の複雑なプログラミング行動をシミュレートする。
プログラミング学習スタイルをモデル化する合理性を検証するために,実世界の2つのデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2024-02-20T10:38:38Z) - Code Representation Learning At Scale [75.04686476303436]
2段階の事前学習スキームを用いて,大量のコードデータを用いてコード表現学習を行う。
まず、マスキング言語モデリングにおけるランダム性と、プログラミング言語の構造的側面の両方を活用して、エンコーダを訓練する。
そして、教師なしの方法で強陰性かつ強正に構築された対照的な学習を通して表現を強化する。
論文 参考訳(メタデータ) (2024-02-02T22:19:15Z) - CodeGen2: Lessons for Training LLMs on Programming and Natural Languages [116.74407069443895]
我々はエンコーダとデコーダベースのモデルを単一のプレフィックスLMに統一する。
学習方法は,「フリーランチ」仮説の主張を考察する。
データ配信においては,混合分布と多言語学習がモデル性能に及ぼす影響について検討した。
論文 参考訳(メタデータ) (2023-05-03T17:55:25Z) - Leveraging Key Information Modeling to Improve Less-Data Constrained
News Headline Generation via Duality Fine-Tuning [12.443476695459553]
本稿では,鍵情報予測と見出し生成タスクの確率的双対性制約を定式化することにより,新しい双対性微調整法を提案する。
提案手法は、限られたデータからより多くの情報をキャプチャし、別々のタスク間の接続を構築することができ、データ制約の少ない生成タスクに適している。
提案手法は,2つの公開データセット上で,言語モデリングの指標と情報量補正の指標を用いて,性能向上に有効かつ効果的であることを示すため,広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-10-10T07:59:36Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - InfoBERT: Improving Robustness of Language Models from An Information
Theoretic Perspective [84.78604733927887]
BERTのような大規模言語モデルは、幅広いNLPタスクで最先端のパフォーマンスを実現している。
近年の研究では、このようなBERTベースのモデルが、テキストの敵対的攻撃の脅威に直面していることが示されている。
本稿では,事前学習した言語モデルの堅牢な微調整のための新しい学習フレームワークであるInfoBERTを提案する。
論文 参考訳(メタデータ) (2020-10-05T20:49:26Z) - GraphCodeBERT: Pre-training Code Representations with Data Flow [97.00641522327699]
本稿では,コード固有の構造を考慮したプログラミング言語の事前学習モデルであるGraphCodeBERTを提案する。
これは変数間の"where-the-value-comes-from"の関係をエンコードするコードのセマンティックレベルの構造です。
コード検索,クローン検出,コード翻訳,コード改良の4つのタスクにおいて,本モデルを評価する。
論文 参考訳(メタデータ) (2020-09-17T15:25:56Z) - Leveraging Code Generation to Improve Code Retrieval and Summarization
via Dual Learning [18.354352985591305]
コード要約は、ソースコードスニペットが与えられた短い自然言語記述を生成し、コード検索は、自然言語クエリが与えられた関連するソースコードを取得する。
最近の研究は、これらの2つのタスクを組み合わせてパフォーマンスを改善している。
本稿では,新たなコード生成タスクを導入することによって,2つのタスクのエンド・ツー・エンド・モデルを提案する。
論文 参考訳(メタデータ) (2020-02-24T12:26:11Z) - CodeBERT: A Pre-Trained Model for Programming and Natural Languages [117.34242908773061]
CodeBERTは、プログラミング言語(PL)とナット言語(NL)のための事前訓練されたモデルである。
我々はTransformerベースのニューラルアーキテクチャを用いたCodeBERTを開発した。
モデルパラメータの微調整による2つのNL-PLアプリケーション上でのCodeBERTの評価を行った。
論文 参考訳(メタデータ) (2020-02-19T13:09:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。