論文の概要: LLM-KT: Aligning Large Language Models with Knowledge Tracing using a Plug-and-Play Instruction
- arxiv url: http://arxiv.org/abs/2502.02945v1
- Date: Wed, 05 Feb 2025 07:21:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-06 14:28:59.701687
- Title: LLM-KT: Aligning Large Language Models with Knowledge Tracing using a Plug-and-Play Instruction
- Title(参考訳): LLM-KT:プラグイン・アンド・プレイによる知識追跡による大規模言語モデルの調整
- Authors: Ziwei Wang, Jie Zhou, Qin Chen, Min Zhang, Bo Jiang, Aimin Zhou, Qinchun Bai, Liang He,
- Abstract要約: 知識追跡問題は、学生が過去の質問応答記録に基づいて次の質問に正しく答えられるかどうかを予測することを目的としている。
我々は、texttttextbfLLM-KTという、KTのための大規模言語モデル(LLM)ベースのフレームワークを提案する。
タスクレベルのアライメントのために,LLMの豊富な知識と強力な推論能力を活用して,LLMをKTに整合させるPlug-and-Play命令を設計する。
モダリティレベルのアライメントのために、従来の手法で学習した複数のモダリティを統合するために、プラグインコンテキストとシーケンスを設計する。
- 参考スコア(独自算出の注目度): 39.59752235090272
- License:
- Abstract: The knowledge tracing (KT) problem is an extremely important topic in personalized education, which aims to predict whether students can correctly answer the next question based on their past question-answer records. Prior work on this task mainly focused on learning the sequence of behaviors based on the IDs or textual information. However, these studies usually fail to capture students' sufficient behavioral patterns without reasoning with rich world knowledge about questions. In this paper, we propose a large language models (LLMs)-based framework for KT, named \texttt{\textbf{LLM-KT}}, to integrate the strengths of LLMs and traditional sequence interaction models. For task-level alignment, we design Plug-and-Play instruction to align LLMs with KT, leveraging LLMs' rich knowledge and powerful reasoning capacity. For modality-level alignment, we design the plug-in context and sequence to integrate multiple modalities learned by traditional methods. To capture the long context of history records, we present a plug-in context to flexibly insert the compressed context embedding into LLMs using question-specific and concept-specific tokens. Furthermore, we introduce a plug-in sequence to enhance LLMs with sequence interaction behavior representation learned by traditional sequence models using a sequence adapter. Extensive experiments show that \texttt{\textbf{LLM-KT}} obtains state-of-the-art performance on four typical datasets by comparing it with approximately 20 strong baselines.
- Abstract(参考訳): 知識追跡問題(KT)は,過去の質問応答記録に基づいて,学生が次の質問に正しく答えられるかどうかを予測することを目的とした,パーソナライズ教育における極めて重要な課題である。
このタスクの以前の研究は、主にIDやテキスト情報に基づいて行動のシーケンスを学習することに焦点を当てていた。
しかし、これらの研究は通常、学生の十分な行動パターンを、質問に関する豊富な世界知識に従わずにとらえることに失敗する。
本稿では,LLMの強みと従来のシーケンス相互作用モデルを統合するため,KTのための大規模言語モデル(LLM)ベースのフレームワークであるtexttt{\textbf{LLM-KT}}を提案する。
タスクレベルのアライメントのために,LLMの豊富な知識と強力な推論能力を活用して,LLMをKTに整合させるPlug-and-Play命令を設計する。
モダリティレベルのアライメントのために、従来の手法で学習した複数のモダリティを統合するために、プラグインコンテキストとシーケンスを設計する。
歴史記録の長いコンテキストをキャプチャするために,質問特化トークンと概念特化トークンを用いて圧縮コンテキストをLLMに柔軟に挿入するプラグインコンテキストを提案する。
さらに,従来のシーケンスモデルで学習したシーケンス間相互作用の表現をシーケンスアダプタを用いて拡張するプラグインシーケンスを導入する。
大規模な実験により,4つの典型的なデータセットに対して,約20の強いベースラインと比較することにより,最先端のパフォーマンスが得られることがわかった。
関連論文リスト
- On Unsupervised Prompt Learning for Classification with Black-box Language Models [71.60563181678323]
大規模言語モデル(LLM)は、テキスト形式学習問題において顕著な成功を収めた。
LLMは、熟練した人間のアノテータよりも品質の高いデータセットをラベル付けすることができる。
本稿では,ブラックボックス LLM を用いた分類のための教師なしのプロンプト学習を提案する。
論文 参考訳(メタデータ) (2024-10-04T03:39:28Z) - SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - CodecLM: Aligning Language Models with Tailored Synthetic Data [51.59223474427153]
命令追従能力のための高品質な合成データを適応的に生成するフレームワークであるCodecLMを紹介する。
まず、ターゲットの指示分布をキャプチャするために、オンザフライで生成された簡潔なキーワードであるメタデータにシード命令をエンコードする。
また、デコード中に自己論理とコントラストフィルタを導入し、データ効率の良いサンプルを調整する。
論文 参考訳(メタデータ) (2024-04-08T21:15:36Z) - An In-Context Schema Understanding Method for Knowledge Base Question
Answering [70.87993081445127]
大きな言語モデル(LLM)は、言語理解において強力な能力を示しており、この課題を解決するために使用することができる。
既存のメソッドは、当初、スキーマ固有の詳細を使わずにLLMを使用してロジックフォームのドラフトを生成することで、この課題を回避している。
そこで本研究では,LLMが文脈内学習を利用してスキーマを直接理解できる簡易なインコンテキスト理解(ICSU)手法を提案する。
論文 参考訳(メタデータ) (2023-10-22T04:19:17Z) - Enhancing In-Context Learning with Answer Feedback for Multi-Span
Question Answering [9.158919909909146]
本稿では,LLMが望ましくない出力を通知するなど,ラベル付きデータを活用する新しい手法を提案する。
3つのマルチスパン質問応答データセットとキーフレーズ抽出データセットの実験により、我々の新しいプロンプト戦略はLLMの文脈内学習性能を一貫して改善することを示した。
論文 参考訳(メタデータ) (2023-06-07T15:20:24Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z) - Temporal Knowledge Graph Forecasting Without Knowledge Using In-Context
Learning [23.971206470486468]
本稿では,関連する歴史的事実をプロンプトに変換し,トークン確率を用いてランキング予測を生成する枠組みを提案する。
驚いたことに、LLMは最先端のTKGモデルと同等に動作している。
また,エンティティ/リレーション名の代わりに数値指標を用いると,性能に悪影響を及ぼさないことも判明した。
論文 参考訳(メタデータ) (2023-05-17T23:50:28Z) - Domain Incremental Lifelong Learning in an Open World [45.704746275089555]
textbfDiana: a underlinedynamunderlineic underlinearchitecture based lifelounderlineng leunderlinearning model。
ダイアナでは4種類の階層的に整理されたプロンプトが、異なる粒度から知識を取得するために使われている。
論文 参考訳(メタデータ) (2023-05-11T04:19:08Z) - LabelPrompt: Effective Prompt-based Learning for Relation Classification [31.291466190218912]
本稿では,関係分類タスクのための新しいプロンプト型学習手法であるLabelPromptを提案する。
GIVE MODEL CHOICES!'の直感により、まず関係ラベルを表すための追加トークンを定義し、これらのトークンを意味的初期化を伴う動詞としてみなす。
そして、予測関係と与えられた実体との整合性を緩和するために、コントラスト学習を伴うエンティティ認識モジュールを実装した。
論文 参考訳(メタデータ) (2023-02-16T04:06:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。