論文の概要: LMCD: Language Models are Zeroshot Cognitive Diagnosis Learners
- arxiv url: http://arxiv.org/abs/2505.21239v1
- Date: Tue, 27 May 2025 14:19:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.714836
- Title: LMCD: Language Models are Zeroshot Cognitive Diagnosis Learners
- Title(参考訳): LMCD:言語モデルはゼロショット認知診断学習者である
- Authors: Yu He, Zihan Yao, Chentao Song, Tianyu Qi, Jun Liu, Ming Li, Qing Huang,
- Abstract要約: 認知診断(CD)はAIを活用した教育において重要な課題となっている。
プレトレーニング言語モデル(PLM)を利用した最近のNLPベースのアプローチは有望である。
ゼロショット認知診断学習者(LMCD)として言語モデルを提案する。
2つの実世界のデータセットの実験により、LMCDはエクササイズコールドとドメインコールドの両方で最先端の手法を大幅に上回っていることが示された。
- 参考スコア(独自算出の注目度): 12.80627587335383
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cognitive Diagnosis (CD) has become a critical task in AI-empowered education, supporting personalized learning by accurately assessing students' cognitive states. However, traditional CD models often struggle in cold-start scenarios due to the lack of student-exercise interaction data. Recent NLP-based approaches leveraging pre-trained language models (PLMs) have shown promise by utilizing textual features but fail to fully bridge the gap between semantic understanding and cognitive profiling. In this work, we propose Language Models as Zeroshot Cognitive Diagnosis Learners (LMCD), a novel framework designed to handle cold-start challenges by harnessing large language models (LLMs). LMCD operates via two primary phases: (1) Knowledge Diffusion, where LLMs generate enriched contents of exercises and knowledge concepts (KCs), establishing stronger semantic links; and (2) Semantic-Cognitive Fusion, where LLMs employ causal attention mechanisms to integrate textual information and student cognitive states, creating comprehensive profiles for both students and exercises. These representations are efficiently trained with off-the-shelf CD models. Experiments on two real-world datasets demonstrate that LMCD significantly outperforms state-of-the-art methods in both exercise-cold and domain-cold settings. The code is publicly available at https://github.com/TAL-auroraX/LMCD
- Abstract(参考訳): 認知診断(CD)はAIを活用した教育において重要な課題となり、生徒の認知状態を正確に評価することでパーソナライズされた学習を支援する。
しかし、従来のCDモデルは学生と学生の交流データがないため、コールドスタートのシナリオでしばしば苦労する。
最近のNLPに基づく言語モデル(PLM)のアプローチは、テキストの特徴を活用することによって約束されているが、意味理解と認知プロファイリングのギャップを完全に埋めることはできない。
本研究では,Language Models as Zeroshot Cognitive Recognition Learners (LMCD)を提案する。
LMCDは,(1)演習・知識概念の充実した内容を生成する知識拡散(KC)と,(2)学生と学生の双方にとって総合的なプロファイルを作成するために,文章情報と学生の認知状態を統合する意味的認識融合(Semantic-Cognitive Fusion)という2つの段階を通じて機能する。
これらの表現は、市販のCDモデルで効率的に訓練される。
2つの実世界のデータセットの実験により、LMCDはエクササイズコールドとドメインコールドの両方で最先端の手法を大幅に上回っていることが示された。
コードはhttps://github.com/TAL-auroraX/LMCDで公開されている。
関連論文リスト
- LLM4CD: Leveraging Large Language Models for Open-World Knowledge Augmented Cognitive Diagnosis [56.50378080174923]
オープンワールド知識強化認知診断のための大規模言語モデルを活用するLCM4CDを提案する。
本手法はLLMのオープンワールド知識を利用して認知表現型テキスト表現を構築し,CDタスクにリッチな意味情報を導入する。
このアプローチは、従来のID埋め込みを意味表現に置き換え、新しい学生やオープンワールドの知識を持つエクササイズに対応できるようにし、コールドスタート問題に対処する。
論文 参考訳(メタデータ) (2025-05-14T14:48:00Z) - Knowledge is Power: Harnessing Large Language Models for Enhanced Cognitive Diagnosis [12.936153018855649]
認知診断モデル(CDMs)は、学生の認知状態を評価するために、一連のエクササイズを通してそのパフォーマンスを分析する。
既存のCDMは、豊富な事前知識が不足しているため、希少な学生や運動の診断に苦慮することが多い。
大型言語モデル(LLM)の進歩に伴い、認知診断への統合は有望な機会となる。
論文 参考訳(メタデータ) (2025-02-08T13:02:45Z) - Language Representation Favored Zero-Shot Cross-Domain Cognitive Diagnosis [15.006031265076006]
本稿では,ゼロショットクロスドメイン認知診断(LRCD)を用いた言語表現を提案する。
LRCDはまず、異なる領域における学生の行動パターンを分析し、次にテキスト記述を用いて学生、運動、概念のプロファイルを記述する。
言語空間と認知診断空間の相違に対処するため,LRCDにおける言語認知マッパーを提案し,前者から後者へのマッピングを学習する。
論文 参考訳(メタデータ) (2025-01-18T03:35:44Z) - A Dual-Fusion Cognitive Diagnosis Framework for Open Student Learning Environments [10.066184572184627]
本稿では,2つの異なるモダリティを整合させる上での課題を解決するために,二重融合認知診断フレームワーク(DFCD)を提案する。
実験の結果,DFCDはオープンな学習環境において,異なるモダリティと強い適応性を統合することにより,優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-10-19T10:12:02Z) - Interactive Continual Learning: Fast and Slow Thinking [19.253164551254734]
本稿では,対話型連続学習フレームワークを提案する。
System1におけるメモリ検索を改善するために,von Mises-Fisher(vMF)分布に基づくCL-vMF機構を導入する。
提案したICLの包括的評価は,既存の手法と比較して,忘れられ,優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-05T03:37:28Z) - FAC$^2$E: Better Understanding Large Language Model Capabilities by Dissociating Language and Cognition [56.76951887823882]
大規模言語モデル(LLM)は、主に様々なテキスト理解および生成タスクにおける全体的なパフォーマンスによって評価される。
FAC$2$E, FAC$2$Eについて述べる。
論文 参考訳(メタデータ) (2024-02-29T21:05:37Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - Prompting Language-Informed Distribution for Compositional Zero-Shot Learning [73.49852821602057]
合成ゼロショット学習(CZSL)タスクは、目に見えない合成視覚概念を認識することを目的としている。
本稿では,タスクに対して言語インフォームド分布(PLID)を指示するモデルを提案する。
MIT-States、UT-Zappos、C-GQAデータセットの実験結果は、PLIDの先行技術よりも優れた性能を示している。
論文 参考訳(メタデータ) (2023-05-23T18:00:22Z) - ERICA: Improving Entity and Relation Understanding for Pre-trained
Language Models via Contrastive Learning [97.10875695679499]
そこで本研究では, ERICA という新たなコントラスト学習フレームワークを提案し, エンティティとその関係をテキストでより深く理解する。
実験の結果,提案する erica フレームワークは文書レベルの言語理解タスクにおいて一貫した改善を実現することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:35:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。