論文の概要: LLM4CD: Leveraging Large Language Models for Open-World Knowledge Augmented Cognitive Diagnosis
- arxiv url: http://arxiv.org/abs/2505.13492v1
- Date: Wed, 14 May 2025 14:48:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.27032
- Title: LLM4CD: Leveraging Large Language Models for Open-World Knowledge Augmented Cognitive Diagnosis
- Title(参考訳): LLM4CD:オープンワールド知識強化認知診断のための大規模言語モデルを活用する
- Authors: Weiming Zhang, Lingyue Fu, Qingyao Li, Kounianhua Du, Jianghao Lin, Jingwei Yu, Wei Xia, Weinan Zhang, Ruiming Tang, Yong Yu,
- Abstract要約: オープンワールド知識強化認知診断のための大規模言語モデルを活用するLCM4CDを提案する。
本手法はLLMのオープンワールド知識を利用して認知表現型テキスト表現を構築し,CDタスクにリッチな意味情報を導入する。
このアプローチは、従来のID埋め込みを意味表現に置き換え、新しい学生やオープンワールドの知識を持つエクササイズに対応できるようにし、コールドスタート問題に対処する。
- 参考スコア(独自算出の注目度): 56.50378080174923
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cognitive diagnosis (CD) plays a crucial role in intelligent education, evaluating students' comprehension of knowledge concepts based on their test histories. However, current CD methods often model students, exercises, and knowledge concepts solely on their ID relationships, neglecting the abundant semantic relationships present within educational data space. Furthermore, contemporary intelligent tutoring systems (ITS) frequently involve the addition of new students and exercises, a situation that ID-based methods find challenging to manage effectively. The advent of large language models (LLMs) offers the potential for overcoming this challenge with open-world knowledge. In this paper, we propose LLM4CD, which Leverages Large Language Models for Open-World Knowledge Augmented Cognitive Diagnosis. Our method utilizes the open-world knowledge of LLMs to construct cognitively expressive textual representations, which are then encoded to introduce rich semantic information into the CD task. Additionally, we propose an innovative bi-level encoder framework that models students' test histories through two levels of encoders: a macro-level cognitive text encoder and a micro-level knowledge state encoder. This approach substitutes traditional ID embeddings with semantic representations, enabling the model to accommodate new students and exercises with open-world knowledge and address the cold-start problem. Extensive experimental results demonstrate that our proposed method consistently outperforms previous CD models on multiple real-world datasets, validating the effectiveness of leveraging LLMs to introduce rich semantic information into the CD task.
- Abstract(参考訳): 認知診断(CD)は知的教育において重要な役割を担い、学生の知識概念の理解をテスト履歴に基づいて評価する。
しかし、現在のCD手法は、学生、演習、知識の概念を、教育データ空間に存在する豊富な意味的関係を無視して、そのID関係のみをモデル化することが多い。
さらに,同時代の知的学習システム (ITS) では,新しい学生やエクササイズの追加が頻繁に行われており,IDベースの手法が効果的に管理することが困難である。
大規模言語モデル(LLM)の出現は、この課題をオープンワールドの知識で克服する可能性を秘めている。
本稿では,LLM4CDを提案する。LLM4CDは,オープンワールド知識強化認知診断のための大規模言語モデルを活用する。
本手法はLLMのオープンワールド知識を利用して認知表現型テキスト表現を構築し,CDタスクにリッチな意味情報を導入するように符号化する。
さらに、マクロレベルの認知テキストエンコーダとマイクロレベルの知識状態エンコーダの2つのレベルを通じて、学生のテスト履歴をモデル化する革新的なバイレベルエンコーダフレームワークを提案する。
このアプローチは、従来のID埋め込みを意味表現に置き換え、新しい学生やオープンワールドの知識を持つエクササイズに対応できるようにし、コールドスタート問題に対処する。
大規模な実験結果から,提案手法は複数の実世界のデータセットにおける従来のCDモデルより一貫して優れており,CDタスクにリッチなセマンティック情報を導入することの有効性が検証された。
関連論文リスト
- Knowledge Tagging with Large Language Model based Multi-Agent System [17.53518487546791]
本稿では,従来のアルゴリズムの限界に対処するマルチエージェントシステムについて検討する。
我々は,従来の手法が抱えていた課題を克服する上で,LLMベースのマルチエージェントシステムの可能性を強調した。
論文 参考訳(メタデータ) (2024-09-12T21:39:01Z) - Knowledge Tagging System on Math Questions via LLMs with Flexible Demonstration Retriever [48.5585921817745]
大きな言語モデル(LLM)は知識タグ付けタスクを自動化するために使われる。
算数問題における知識タグ付けタスクに対するゼロショットと少数ショットの結果の強い性能を示す。
強化学習に基づくデモレトリバーの提案により,異なるサイズのLLMの潜在能力を活用できた。
論文 参考訳(メタデータ) (2024-06-19T23:30:01Z) - Interpreting Latent Student Knowledge Representations in Programming Assignments [2.184775414778289]
本稿では,学生の潜在的知識状態の解釈を促す情報正規化オープンエンドアイテム応答理論モデルを提案する。
本稿では,InfoOIRTが学生のコードを正確に生成し,解釈可能な学生の知識表現につながることを示す。
論文 参考訳(メタデータ) (2024-05-13T22:01:03Z) - A Comprehensive Study of Knowledge Editing for Large Language Models [82.65729336401027]
大規模言語モデル(LLM)は、人間のコミュニケーションを忠実に反映したテキストの理解と生成の素晴らしい能力を示している。
本稿では,知識編集の問題を定義し,最先端アプローチの包括的レビューを行う。
我々は,代表的知識編集アプローチの総合的評価のための新しいベンチマークであるKnowEditを紹介した。
論文 参考訳(メタデータ) (2024-01-02T16:54:58Z) - DKPLM: Decomposable Knowledge-enhanced Pre-trained Language Model for
Natural Language Understanding [19.478288026844893]
知識強化事前学習言語モデル(英: Knowledge-Enhanced Pre-trained Language Models, KEPLM)は、知識グラフから3重関係を注入して言語理解能力を向上させる事前学習モデルである。
従来の研究は、知識グラフから得られた知識を表現するための知識エンコーダとモデルを統合する。
本稿では,事前学習,微調整,推論段階における事前学習言語モデルの知識注入過程を分解する,DKPLMという新しいKEPLMを提案する。
論文 参考訳(メタデータ) (2021-12-02T08:19:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。