論文の概要: Personality-aware Student Simulation for Conversational Intelligent Tutoring Systems
- arxiv url: http://arxiv.org/abs/2404.06762v1
- Date: Wed, 10 Apr 2024 06:03:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-11 15:19:53.050820
- Title: Personality-aware Student Simulation for Conversational Intelligent Tutoring Systems
- Title(参考訳): 対話型知的学習システムのための個人性を考慮した学生シミュレーション
- Authors: Zhengyuan Liu, Stella Xin Yin, Geyu Lin, Nancy F. Chen,
- Abstract要約: Intelligent Tutoring Systems(ITS)は、パーソナライズされたセルフペースの学習体験を提供する。
大規模言語モデル(LLM)の出現により、より優れた人間と機械の相互作用が可能になる。
LLMは、与えられた言語能力と性格特性に応じて、多様な学生の反応を生成することができる。
- 参考スコア(独自算出の注目度): 34.760230622675365
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intelligent Tutoring Systems (ITSs) can provide personalized and self-paced learning experience. The emergence of large language models (LLMs) further enables better human-machine interaction, and facilitates the development of conversational ITSs in various disciplines such as math and language learning. In dialogic teaching, recognizing and adapting to individual characteristics can significantly enhance student engagement and learning efficiency. However, characterizing and simulating student's persona remain challenging in training and evaluating conversational ITSs. In this work, we propose a framework to construct profiles of different student groups by refining and integrating both cognitive and noncognitive aspects, and leverage LLMs for personality-aware student simulation in a language learning scenario. We further enhance the framework with multi-aspect validation, and conduct extensive analysis from both teacher and student perspectives. Our experimental results show that state-of-the-art LLMs can produce diverse student responses according to the given language ability and personality traits, and trigger teacher's adaptive scaffolding strategies.
- Abstract(参考訳): Intelligent Tutoring Systems(ITS)は、パーソナライズされたセルフペースの学習体験を提供する。
大規模言語モデル(LLM)の出現により、人間と機械の相互作用がさらに向上し、数学や言語学習といった様々な分野における対話型ITSの開発が促進される。
対話型授業では、個々の特徴を認識して適応することで、学生のエンゲージメントと学習効率を著しく向上させることができる。
しかし, 学生の性格の特徴付けとシミュレートは, 会話型ITSの訓練と評価において依然として困難である。
本研究では,認知的側面と非認知的側面の両方を洗練・統合することにより,異なる学生グループのプロファイルを構築するための枠組みを提案し,LLMを言語学習シナリオにおけるパーソナリティを考慮した学生シミュレーションに活用する。
マルチアスペクト検証によりフレームワークをさらに強化し、教師と学生の両方の観点から広範な分析を行う。
実験の結果,現状のLLMは,与えられた言語能力や性格特性に応じて多様な学生の反応を生成でき,教師の適応的足場戦略を誘発できることがわかった。
関連論文リスト
- MathVC: An LLM-Simulated Multi-Character Virtual Classroom for Mathematics Education [19.549398447035376]
大規模言語モデル(LLM)は、最近、数学的な問題をモデル化し、文字をシミュレートする双方で強力な能力を示した。
複数のLDMを模擬した学生用仮想教室であるMATHVCについて紹介する。
シミュレーションにMMドメイン知識を統合すること、文字シミュレーションの基盤としてシンボルスキーマを定義すること、対話手順を推進するためにプラットフォームレベルでメタプランナを設計すること、の3つの革新を提案する。
論文 参考訳(メタデータ) (2024-04-10T03:35:51Z) - Scaffolding Language Learning via Multi-modal Tutoring Systems with Pedagogical Instructions [34.760230622675365]
知的家庭教師システム(ITS)は、人間の家庭教師を模倣し、学習者にカスタマイズされた指導やフィードバックを提供することを目的としている。
生成人工知能の出現に伴い、大規模言語モデル(LLM)は、複雑な会話の相互作用をシステムに付与する。
教育指導がITSの足場形成をいかに促進するかを,子どもに言語学習のための画像記述を指導するケーススタディにより検討した。
論文 参考訳(メタデータ) (2024-04-04T13:22:28Z) - Evaluating and Optimizing Educational Content with Large Language Model Judgments [52.33701672559594]
言語モデル(LM)を教育専門家として活用し,学習結果に対する様々な指導の影響を評価する。
本稿では,一方のLMが他方のLMの判断を報酬関数として利用して命令材料を生成する命令最適化手法を提案する。
ヒトの教師によるこれらのLM生成ワークシートの評価は、LM判定と人間の教師の嗜好との間に有意な整合性を示す。
論文 参考訳(メタデータ) (2024-03-05T09:09:15Z) - Human Simulacra: A Step toward the Personification of Large Language Models [18.32758451616534]
大規模言語モデル(LLM)は、人間の知性の側面を忠実に模倣するシステムとして認識されている。
本稿では,仮想キャラクタのライフストーリーをゼロから構築するためのフレームワークを提案する。
実験により, 構築したシミュラクラは, 対象キャラクタと一致した擬人化応答を生成できることが実証された。
論文 参考訳(メタデータ) (2024-02-28T09:11:14Z) - YODA: Teacher-Student Progressive Learning for Language Models [82.0172215948963]
本稿では,教師が指導するプログレッシブ・ラーニング・フレームワークであるYodaを紹介する。
モデルファインチューニングの有効性を向上させるために,教師の教育過程をエミュレートする。
実験の結果, YODAのデータによるLLaMA2のトレーニングにより, SFTは大幅に向上した。
論文 参考訳(メタデータ) (2024-01-28T14:32:15Z) - DeepThought: An Architecture for Autonomous Self-motivated Systems [1.6385815610837167]
大規模言語モデル(LLM)の内部アーキテクチャは、本質的な動機づけ、エージェンシー、あるいはある程度の意識を支持できない。
我々は,LLMを認知言語エージェントのアーキテクチャに統合し,エージェントや自己モチベーション,メタ認知の特徴を表現できるアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-11-14T21:20:23Z) - Progressively Efficient Learning [58.6490456517954]
我々はCEIL(Communication-Efficient Interactive Learning)という新しい学習フレームワークを開発した。
CEILは、学習者と教師がより抽象的な意図を交換することで効率的にコミュニケーションする人間のようなパターンの出現につながる。
CEILで訓練されたエージェントは、新しいタスクを素早く習得し、非階層的で階層的な模倣学習を、絶対的な成功率で最大50%、20%上回った。
論文 参考訳(メタデータ) (2023-10-13T07:52:04Z) - Empowering Private Tutoring by Chaining Large Language Models [87.76985829144834]
本研究は,最先端の大規模言語モデル(LLM)を活用した,本格的な知的チューリングシステムの開発を探求する。
このシステムは、相互に接続された3つのコアプロセス(相互作用、反射、反応)に分けられる。
各プロセスは LLM ベースのツールと動的に更新されたメモリモジュールによって実装される。
論文 参考訳(メタデータ) (2023-09-15T02:42:03Z) - Adaptive and Personalized Exercise Generation for Online Language
Learning [39.28263461783446]
オンライン言語学習のための適応的でパーソナライズされたエクササイズ生成の新しい課題について研究する。
学習履歴から各生徒の進化した知識状態を推定する知識追跡モデルを組み合わせる。
我々はDuolingoの実際の学習者インタラクションデータに基づいてモデルをトレーニングし、評価する。
論文 参考訳(メタデータ) (2023-06-04T20:18:40Z) - Opportunities and Challenges in Neural Dialog Tutoring [54.07241332881601]
言語学習のための2つの対話学習データセットを用いて、様々な生成言語モデルを厳密に分析する。
現在のアプローチでは、制約のある学習シナリオでチューリングをモデル化できますが、制約の少ないシナリオではパフォーマンスが悪くなります。
人的品質評価では, モデルと接地木アノテーションの両方が, 同等のチュータリングの点で低い性能を示した。
論文 参考訳(メタデータ) (2023-01-24T11:00:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。