論文の概要: Students Rather Than Experts: A New AI For Education Pipeline To Model More Human-Like And Personalised Early Adolescences
- arxiv url: http://arxiv.org/abs/2410.15701v1
- Date: Mon, 21 Oct 2024 07:18:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:18:33.004398
- Title: Students Rather Than Experts: A New AI For Education Pipeline To Model More Human-Like And Personalised Early Adolescences
- Title(参考訳): 学生はエキスパートではなくて: 人間らしくパーソナライズされた青少年をモデル化する教育パイプライン
- Authors: Yiping Ma, Shiyu Hu, Xuchen Li, Yipei Wang, Shiqing Liu, Kang Hao Cheong,
- Abstract要約: 本研究は,仮想学生エージェントをモデル化するための文脈としての言語学習に焦点を当てた。
教師と生徒の個人的交流のデータセットを様々な性格特性でキュレートすることにより,多次元的評価実験を行う。
- 参考スコア(独自算出の注目度): 11.576679362717478
- License:
- Abstract: The capabilities of large language models (LLMs) have been applied in expert systems across various domains, providing new opportunities for AI in Education. Educational interactions involve a cyclical exchange between teachers and students. Current research predominantly focuses on using LLMs to simulate teachers, leveraging their expertise to enhance student learning outcomes. However, the simulation of students, which could improve teachers' instructional skills, has received insufficient attention due to the challenges of modeling and evaluating virtual students. This research asks: Can LLMs be utilized to develop virtual student agents that mimic human-like behavior and individual variability? Unlike expert systems focusing on knowledge delivery, virtual students must replicate learning difficulties, emotional responses, and linguistic uncertainties. These traits present significant challenges in both modeling and evaluation. To address these issues, this study focuses on language learning as a context for modeling virtual student agents. We propose a novel AI4Education framework, called SOE (Scene-Object-Evaluation), to systematically construct LVSA (LLM-based Virtual Student Agents). By curating a dataset of personalized teacher-student interactions with various personality traits, question types, and learning stages, and fine-tuning LLMs using LoRA, we conduct multi-dimensional evaluation experiments. Specifically, we: (1) develop a theoretical framework for generating LVSA; (2) integrate human subjective evaluation metrics into GPT-4 assessments, demonstrating a strong correlation between human evaluators and GPT-4 in judging LVSA authenticity; and (3) validate that LLMs can generate human-like, personalized virtual student agents in educational contexts, laying a foundation for future applications in pre-service teacher training and multi-agent simulation environments.
- Abstract(参考訳): 大規模言語モデル(LLM)の能力は、さまざまな分野のエキスパートシステムに適用され、教育におけるAIの新しい機会を提供する。
教育交流は教師と学生の循環的な交流を伴う。
現在の研究は主に、LLMを使って教師をシミュレートし、彼らの専門知識を活用して学生の学習成果を高めることに焦点を当てている。
しかし、教師の指導力を向上させることができる学生のシミュレーションは、仮想学生のモデリングと評価の難しさから、不十分な注目を集めている。
LLMは、人間の行動や個人の多様性を模倣する仮想的な学生エージェントを開発するために利用できますか?
知識提供に焦点を当てたエキスパートシステムとは異なり、仮想的な学生は学習困難、感情的反応、言語的不確実性を再現する必要がある。
これらの特徴は、モデリングと評価の両方において重要な課題である。
これらの課題に対処するために,仮想学生エージェントをモデル化するための文脈として,言語学習に焦点を当てた。
我々は,LVSA(LLMベースの仮想学生エージェント)を体系的に構築する,SOE(Scene-Object-Evaluation)と呼ばれる新しいAI4教育フレームワークを提案する。
様々な性格特性、質問タイプ、学習段階と、LoRAを用いた微調整LDMとの個人化された教師と学生のインタラクションのデータセットをキュレートすることにより、多次元評価実験を行う。
具体的には,(1)LVSAを作成するための理論的枠組みを開発すること,(2)LVSAの信頼性を判断する上で,人的評価指標をGPT-4アセスメントに統合すること,(3)LLMが教育的文脈において人間らしく個人化された仮想学生エージェントを生成できることを示すこと,(3)プレサービス教員養成やマルチエージェントシミュレーション環境における将来の応用の基礎を構築すること。
関連論文リスト
- PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
社会実践, 一貫性, 動的発達という, 心理学に根ざした個性の原則を統合したPersLLMを提案する。
モデルパラメータに直接パーソナリティ特性を組み込み、誘導に対するモデルの抵抗性を高め、一貫性を高め、パーソナリティの動的進化を支援する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Simulating Classroom Education with LLM-Empowered Agents [52.62324491261461]
SimClassは、ユーザ参加を含むマルチエージェントの教室シミュレーションフレームワークである。
代表的クラスの役割を認識し、自動授業のための新しいクラス制御機構を導入する。
我々は,LLMが従来の教室のインタラクションパターンを効果的にシミュレートし,ユーザエクスペリエンスを向上させることを実証した。
論文 参考訳(メタデータ) (2024-06-27T14:51:07Z) - Toward In-Context Teaching: Adapting Examples to Students' Misconceptions [54.82965010592045]
本稿ではAdapTと呼ばれる一連のモデルと評価手法を紹介する。
AToMは、学生の過去の信念を共同で推論し、将来の信念の正しさを最適化する適応教育の新しい確率論的モデルである。
本研究は,適応型学習課題の難しさと,それを解決するための学習適応モデルの可能性を両立させるものである。
論文 参考訳(メタデータ) (2024-05-07T17:05:27Z) - Student Data Paradox and Curious Case of Single Student-Tutor Model: Regressive Side Effects of Training LLMs for Personalized Learning [25.90420385230675]
パーソナライズされた教育の追求は、知的学習システムの開発におけるLarge Language Models(LLM)の統合につながった。
我々の研究は、このアプローチの根本的な課題を明らかにする:学生データパラドックス」
このパラドックスは、学習者の行動を理解するために学生データに基づいて訓練されたLLMが、故意に自身の事実的知識と推論能力を損なうときに現れる。
論文 参考訳(メタデータ) (2024-04-23T15:57:55Z) - Personality-aware Student Simulation for Conversational Intelligent Tutoring Systems [34.760230622675365]
Intelligent Tutoring Systems(ITS)は、パーソナライズされたセルフペースの学習体験を提供する。
大規模言語モデル(LLM)の出現により、より優れた人間と機械の相互作用が可能になる。
LLMは、与えられた言語能力と性格特性に応じて、多様な学生の反応を生成することができる。
論文 参考訳(メタデータ) (2024-04-10T06:03:13Z) - MathVC: An LLM-Simulated Multi-Character Virtual Classroom for Mathematics Education [19.549398447035376]
大規模言語モデル(LLM)は、最近、数学的な問題をモデル化し、文字をシミュレートする双方で強力な能力を示した。
複数のLDMを模擬した学生用仮想教室であるMATHVCについて紹介する。
シミュレーションにMMドメイン知識を統合すること、文字シミュレーションの基盤としてシンボルスキーマを定義すること、対話手順を推進するためにプラットフォームレベルでメタプランナを設計すること、の3つの革新を提案する。
論文 参考訳(メタデータ) (2024-04-10T03:35:51Z) - EduAgent: Generative Student Agents in Learning [15.215078619481732]
オンライン教育における学生シミュレーションは,様々な背景を持つ学生の動的学習行動に対処するために重要である。
ディープラーニングに基づく既存のシミュレーションモデルでは、教育的文脈における事前知識が欠如しているため、大規模なトレーニングデータが必要である。
本研究は,認知的事前知識を取り入れた新しい生成エージェントフレームワークであるEduAgentを提案する。
論文 参考訳(メタデータ) (2024-03-23T18:19:17Z) - Evaluating and Optimizing Educational Content with Large Language Model Judgments [52.33701672559594]
言語モデル(LM)を教育専門家として活用し,学習結果に対する様々な指導の影響を評価する。
本稿では,一方のLMが他方のLMの判断を報酬関数として利用して命令材料を生成する命令最適化手法を提案する。
ヒトの教師によるこれらのLM生成ワークシートの評価は、LM判定と人間の教師の嗜好との間に有意な整合性を示す。
論文 参考訳(メタデータ) (2024-03-05T09:09:15Z) - Human-AI Collaborative Essay Scoring: A Dual-Process Framework with LLMs [13.262711792955377]
本研究では,Large Language Models (LLMs) のエッセイ自動評価における有効性について検討した。
本稿では,デュアルプロセス理論にインスパイアされたオープンソースのLLMベースのAESシステムを提案する。
本システムでは, 学習過程の自動化だけでなく, 成績や効率の向上も図っている。
論文 参考訳(メタデータ) (2024-01-12T07:50:10Z) - Adapting Large Language Models for Education: Foundational Capabilities, Potentials, and Challenges [60.62904929065257]
大規模言語モデル(LLM)は、個々の要求を解釈することでこの問題を解決する可能性を提供する。
本稿では, 数学, 文章, プログラミング, 推論, 知識に基づく質問応答など, 教育能力に関する最近のLLM研究を概観する。
論文 参考訳(メタデータ) (2023-12-27T14:37:32Z) - Opportunities and Challenges in Neural Dialog Tutoring [54.07241332881601]
言語学習のための2つの対話学習データセットを用いて、様々な生成言語モデルを厳密に分析する。
現在のアプローチでは、制約のある学習シナリオでチューリングをモデル化できますが、制約の少ないシナリオではパフォーマンスが悪くなります。
人的品質評価では, モデルと接地木アノテーションの両方が, 同等のチュータリングの点で低い性能を示した。
論文 参考訳(メタデータ) (2023-01-24T11:00:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。