論文の概要: Students Rather Than Experts: A New AI For Education Pipeline To Model More Human-Like And Personalised Early Adolescences
- arxiv url: http://arxiv.org/abs/2410.15701v1
- Date: Mon, 21 Oct 2024 07:18:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-28 17:07:38.289842
- Title: Students Rather Than Experts: A New AI For Education Pipeline To Model More Human-Like And Personalised Early Adolescences
- Title(参考訳): 学生はエキスパートではなくて: 人間らしくパーソナライズされた青少年をモデル化する教育パイプライン
- Authors: Yiping Ma, Shiyu Hu, Xuchen Li, Yipei Wang, Shiqing Liu, Kang Hao Cheong,
- Abstract要約: 本研究は,仮想学生エージェントをモデル化するための文脈としての言語学習に焦点を当てた。
教師と生徒の個人的交流のデータセットを様々な性格特性でキュレートすることにより,多次元的評価実験を行う。
- 参考スコア(独自算出の注目度): 11.576679362717478
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The capabilities of large language models (LLMs) have been applied in expert systems across various domains, providing new opportunities for AI in Education. Educational interactions involve a cyclical exchange between teachers and students. Current research predominantly focuses on using LLMs to simulate teachers, leveraging their expertise to enhance student learning outcomes. However, the simulation of students, which could improve teachers' instructional skills, has received insufficient attention due to the challenges of modeling and evaluating virtual students. This research asks: Can LLMs be utilized to develop virtual student agents that mimic human-like behavior and individual variability? Unlike expert systems focusing on knowledge delivery, virtual students must replicate learning difficulties, emotional responses, and linguistic uncertainties. These traits present significant challenges in both modeling and evaluation. To address these issues, this study focuses on language learning as a context for modeling virtual student agents. We propose a novel AI4Education framework, called SOE (Scene-Object-Evaluation), to systematically construct LVSA (LLM-based Virtual Student Agents). By curating a dataset of personalized teacher-student interactions with various personality traits, question types, and learning stages, and fine-tuning LLMs using LoRA, we conduct multi-dimensional evaluation experiments. Specifically, we: (1) develop a theoretical framework for generating LVSA; (2) integrate human subjective evaluation metrics into GPT-4 assessments, demonstrating a strong correlation between human evaluators and GPT-4 in judging LVSA authenticity; and (3) validate that LLMs can generate human-like, personalized virtual student agents in educational contexts, laying a foundation for future applications in pre-service teacher training and multi-agent simulation environments.
- Abstract(参考訳): 大規模言語モデル(LLM)の能力は、さまざまな分野のエキスパートシステムに適用され、教育におけるAIの新しい機会を提供する。
教育交流は教師と学生の循環的な交流を伴う。
現在の研究は主に、LLMを使って教師をシミュレートし、彼らの専門知識を活用して学生の学習成果を高めることに焦点を当てている。
しかし、教師の指導力を向上させることができる学生のシミュレーションは、仮想学生のモデリングと評価の難しさから、不十分な注目を集めている。
LLMは、人間の行動や個人の多様性を模倣する仮想的な学生エージェントを開発するために利用できますか?
知識提供に焦点を当てたエキスパートシステムとは異なり、仮想的な学生は学習困難、感情的反応、言語的不確実性を再現する必要がある。
これらの特徴は、モデリングと評価の両方において重要な課題である。
これらの課題に対処するために,仮想学生エージェントをモデル化するための文脈として,言語学習に焦点を当てた。
我々は,LVSA(LLMベースの仮想学生エージェント)を体系的に構築する,SOE(Scene-Object-Evaluation)と呼ばれる新しいAI4教育フレームワークを提案する。
様々な性格特性、質問タイプ、学習段階と、LoRAを用いた微調整LDMとの個人化された教師と学生のインタラクションのデータセットをキュレートすることにより、多次元評価実験を行う。
具体的には,(1)LVSAを作成するための理論的枠組みを開発すること,(2)LVSAの信頼性を判断する上で,人的評価指標をGPT-4アセスメントに統合すること,(3)LLMが教育的文脈において人間らしく個人化された仮想学生エージェントを生成できることを示すこと,(3)プレサービス教員養成やマルチエージェントシミュレーション環境における将来の応用の基礎を構築すること。
関連論文リスト
- A Theory of Adaptive Scaffolding for LLM-Based Pedagogical Agents [3.6084561124905297]
大規模言語モデル(LLM)は、学生の学習を支援するために意味のある対話を行う教育エージェントを作成する新しい機会を提供する。
本研究では,STEM+C学習に着目したLLMエージェントの適応的足場構築のための,エビデンス中心設計と社会認知理論を組み合わせたフレームワークを提案する。
この結果から,Inquizzitorは中核的な学習理論に沿った高品質な評価とインタラクションを提供し,教師が学生に価値をもたらす効果的な指導を提供することがわかった。
論文 参考訳(メタデータ) (2025-08-02T21:58:32Z) - Automated Feedback on Student-Generated UML and ER Diagrams Using Large Language Models [39.58317527488534]
LLMツールのプロトタイプであるDUET(Diamatic & ER Tutor)を紹介する。
参照ダイアグラムと学生が提出したダイアグラムをテキスト表現に変換し、違いに基づいて構造化されたフィードバックを提供する。
多段階のLCMパイプラインを使用して図を比較し、反射フィードバックを生成する。
自己指導型学習を奨励し、指導戦略を伝えることを目的として、教育者の分析的な洞察を可能にする。
論文 参考訳(メタデータ) (2025-07-31T11:49:01Z) - A Large-Scale Real-World Evaluation of LLM-Based Virtual Teaching Assistant [19.026750427901423]
仮想教示アシスタント(VTA)は、インスタントフィードバックを提供し、マルチターンインタラクションを促進することによって、学生の学習を強化する可能性がある。
本研究は、LLMベースのVTAを開発し、477人の大学院生によるAIプログラミングコースに展開する。
実世界の教室におけるVTA導入の可能性を評価し,導入の鍵となる課題を明らかにする。
論文 参考訳(メタデータ) (2025-06-20T10:59:57Z) - Unveiling the Learning Mind of Language Models: A Cognitive Framework and Empirical Study [50.065744358362345]
大規模言語モデル(LLM)は、数学、コーディング、推論といったタスクにまたがる印象的な機能を示している。
しかし、彼らの学習能力は、動的環境に適応し、新しい知識を得るのに不可欠であり、まだ過小評価されていない。
論文 参考訳(メタデータ) (2025-06-16T13:24:50Z) - Investigating Pedagogical Teacher and Student LLM Agents: Genetic Adaptation Meets Retrieval Augmented Generation Across Learning Style [16.985943868964394]
効果的な教育には、学生の多様な認知的・行動的プロファイルに対応するために教育戦略を適用する必要がある。
本稿では,異種学生エージェントを自己最適化型教師エージェントと統合する新しいシミュレーションフレームワークを提案する。
本研究は,データ駆動環境下での人間教育者を訓練するためのテストベッドの提供を目的として,LLMによるシミュレーションの可能性を強調した。
論文 参考訳(メタデータ) (2025-05-25T14:45:35Z) - From Problem-Solving to Teaching Problem-Solving: Aligning LLMs with Pedagogy using Reinforcement Learning [76.09281171131941]
大規模言語モデル(LLM)は教育を変換することができるが、直接質問応答のための最適化はしばしば効果的な教育を損なう。
オンライン強化学習(RL)に基づくアライメントフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-21T15:00:07Z) - Exploring LLM-based Student Simulation for Metacognitive Cultivation [33.346260553878984]
高品質なシミュレーション学生エージェントを自動生成・フィルタリングするパイプラインを提案する。
我々の研究は、パーソナライズされた学習と教育アセスメントにおける幅広い応用の道を開く。
論文 参考訳(メタデータ) (2025-02-17T11:12:47Z) - Position: LLMs Can be Good Tutors in Foreign Language Education [87.88557755407815]
我々は、外国語教育(FLE)において、大きな言語モデル(LLM)が効果的な家庭教師として機能する可能性を主張する。
具体的には、(1)データエンハンサーとして、(2)学習教材の作成や学生シミュレーションとして、(2)タスク予測器として、学習者の評価や学習経路の最適化に、(3)エージェントとして、そして、パーソナライズされた包括的教育を可能にする3つの重要な役割を果たせる。
論文 参考訳(メタデータ) (2025-02-08T06:48:49Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
社会実践, 一貫性, 動的発達という, 心理学に根ざした個性の原則を統合したPersLLMを提案する。
モデルパラメータに直接パーソナリティ特性を組み込み、誘導に対するモデルの抵抗性を高め、一貫性を高め、パーソナリティの動的進化を支援する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Simulating Classroom Education with LLM-Empowered Agents [52.62324491261461]
SimClassは、ユーザ参加を含むマルチエージェントの教室シミュレーションフレームワークである。
代表的クラスの役割を認識し、自動授業のための新しいクラス制御機構を導入する。
我々は,LLMが従来の教室のインタラクションパターンを効果的にシミュレートし,ユーザエクスペリエンスを向上させることを実証した。
論文 参考訳(メタデータ) (2024-06-27T14:51:07Z) - Toward In-Context Teaching: Adapting Examples to Students' Misconceptions [54.82965010592045]
本稿ではAdapTと呼ばれる一連のモデルと評価手法を紹介する。
AToMは、学生の過去の信念を共同で推論し、将来の信念の正しさを最適化する適応教育の新しい確率論的モデルである。
本研究は,適応型学習課題の難しさと,それを解決するための学習適応モデルの可能性を両立させるものである。
論文 参考訳(メタデータ) (2024-05-07T17:05:27Z) - Student Data Paradox and Curious Case of Single Student-Tutor Model: Regressive Side Effects of Training LLMs for Personalized Learning [25.90420385230675]
パーソナライズされた教育の追求は、知的学習システムの開発におけるLarge Language Models(LLM)の統合につながった。
我々の研究は、このアプローチの根本的な課題を明らかにする:学生データパラドックス」
このパラドックスは、学習者の行動を理解するために学生データに基づいて訓練されたLLMが、故意に自身の事実的知識と推論能力を損なうときに現れる。
論文 参考訳(メタデータ) (2024-04-23T15:57:55Z) - Personality-aware Student Simulation for Conversational Intelligent Tutoring Systems [34.760230622675365]
Intelligent Tutoring Systems(ITS)は、パーソナライズされたセルフペースの学習体験を提供する。
大規模言語モデル(LLM)の出現により、より優れた人間と機械の相互作用が可能になる。
LLMは、与えられた言語能力と性格特性に応じて、多様な学生の反応を生成することができる。
論文 参考訳(メタデータ) (2024-04-10T06:03:13Z) - MathVC: An LLM-Simulated Multi-Character Virtual Classroom for Mathematics Education [19.549398447035376]
大規模言語モデル(LLM)は、最近、数学的な問題をモデル化し、文字をシミュレートする双方で強力な能力を示した。
複数のLDMを模擬した学生用仮想教室であるMATHVCについて紹介する。
シミュレーションにMMドメイン知識を統合すること、文字シミュレーションの基盤としてシンボルスキーマを定義すること、対話手順を推進するためにプラットフォームレベルでメタプランナを設計すること、の3つの革新を提案する。
論文 参考訳(メタデータ) (2024-04-10T03:35:51Z) - EduAgent: Generative Student Agents in Learning [15.215078619481732]
オンライン教育における学生シミュレーションは,様々な背景を持つ学生の動的学習行動に対処するために重要である。
ディープラーニングに基づく既存のシミュレーションモデルでは、教育的文脈における事前知識が欠如しているため、大規模なトレーニングデータが必要である。
本研究は,認知的事前知識を取り入れた新しい生成エージェントフレームワークであるEduAgentを提案する。
論文 参考訳(メタデータ) (2024-03-23T18:19:17Z) - Evaluating and Optimizing Educational Content with Large Language Model Judgments [52.33701672559594]
言語モデル(LM)を教育専門家として活用し,学習結果に対する様々な指導の影響を評価する。
本稿では,一方のLMが他方のLMの判断を報酬関数として利用して命令材料を生成する命令最適化手法を提案する。
ヒトの教師によるこれらのLM生成ワークシートの評価は、LM判定と人間の教師の嗜好との間に有意な整合性を示す。
論文 参考訳(メタデータ) (2024-03-05T09:09:15Z) - Human-AI Collaborative Essay Scoring: A Dual-Process Framework with LLMs [13.262711792955377]
本研究では,Large Language Models (LLMs) のエッセイ自動評価における有効性について検討した。
本稿では,デュアルプロセス理論にインスパイアされたオープンソースのLLMベースのAESシステムを提案する。
本システムでは, 学習過程の自動化だけでなく, 成績や効率の向上も図っている。
論文 参考訳(メタデータ) (2024-01-12T07:50:10Z) - Adapting Large Language Models for Education: Foundational Capabilities, Potentials, and Challenges [60.62904929065257]
大規模言語モデル(LLM)は、個々の要求を解釈することでこの問題を解決する可能性を提供する。
本稿では, 数学, 文章, プログラミング, 推論, 知識に基づく質問応答など, 教育能力に関する最近のLLM研究を概観する。
論文 参考訳(メタデータ) (2023-12-27T14:37:32Z) - Opportunities and Challenges in Neural Dialog Tutoring [54.07241332881601]
言語学習のための2つの対話学習データセットを用いて、様々な生成言語モデルを厳密に分析する。
現在のアプローチでは、制約のある学習シナリオでチューリングをモデル化できますが、制約の少ないシナリオではパフォーマンスが悪くなります。
人的品質評価では, モデルと接地木アノテーションの両方が, 同等のチュータリングの点で低い性能を示した。
論文 参考訳(メタデータ) (2023-01-24T11:00:17Z) - Dual Policy Distillation [58.43610940026261]
教員政策を学生政策に転換する政策蒸留は、深層強化学習の課題において大きな成功を収めた。
本研究では,2人の学習者が同じ環境下で活動し,環境の異なる視点を探索する,学生学生による二重政策蒸留(DPD)を導入する。
この二重学習フレームワークを開発する上で重要な課題は、同時代の学習に基づく強化学習アルゴリズムにおいて、ピア学習者から有益な知識を特定することである。
論文 参考訳(メタデータ) (2020-06-07T06:49:47Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。