論文の概要: EduDial: Constructing a Large-scale Multi-turn Teacher-Student Dialogue Corpus
- arxiv url: http://arxiv.org/abs/2510.12899v1
- Date: Tue, 14 Oct 2025 18:18:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.379088
- Title: EduDial: Constructing a Large-scale Multi-turn Teacher-Student Dialogue Corpus
- Title(参考訳): Edudial: 大規模マルチターン学習者対話コーパスの構築
- Authors: Shouang Wei, Min Zhang, Xin Lin, Bo Jiang, Zhongxiang Dai, Kun Kuang,
- Abstract要約: EduDialは総合的な多ターン教師/学生対話データセットである。
EduDialは345のコアナレッジポイントをカバーし、教師と学生エージェントの対話によって生成された34,250の対話セッションで構成されている。
- 参考スコア(独自算出の注目度): 59.693733170193944
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Recently, several multi-turn dialogue benchmarks have been proposed to evaluate the conversational abilities of large language models (LLMs). As LLMs are increasingly recognized as a key technology for advancing intelligent education, owing to their ability to deeply understand instructional contexts and provide personalized guidance, the construction of dedicated teacher-student dialogue benchmarks has become particularly important. To this end, we present EduDial, a comprehensive multi-turn teacher-student dialogue dataset. EduDial covers 345 core knowledge points and consists of 34,250 dialogue sessions generated through interactions between teacher and student agents. Its design is guided by Bloom's taxonomy of educational objectives and incorporates ten questioning strategies, including situational questioning, zone of proximal development (ZPD) questioning, and metacognitive questioning-thus better capturing authentic classroom interactions. Furthermore, we design differentiated teaching strategies for students at different cognitive levels, thereby providing more targeted teaching guidance. Building on EduDial, we further develop EduDial-LLM 32B via training and propose an 11-dimensional evaluation framework that systematically measures the teaching abilities of LLMs, encompassing both overall teaching quality and content quality. Experiments on 17 mainstream LLMs reveal that most models struggle in student-centered teaching scenarios, whereas our EduDial-LLM achieves significant gains, consistently outperforming all baselines across all metrics. The code is available at https://github.com/Mind-Lab-ECNU/EduDial/tree/main.
- Abstract(参考訳): 近年,大規模言語モデル(LLM)の対話能力を評価するために,複数のマルチターン対話ベンチマークが提案されている。
LLMは、教育の文脈を深く理解し、パーソナライズされたガイダンスを提供する能力から、知的教育を進化させる重要な技術として認識されつつあるため、専用の教師と学生の対話ベンチマークの構築が特に重要になっている。
そこで本稿では,教師と学生の総合対話データセットであるEduDialを紹介する。
EduDialは345のコアナレッジポイントをカバーし、教師と学生エージェントの対話によって生成された34,250の対話セッションで構成されている。
その設計はブルームの教育目的の分類学に導かれ、状況的質問、近親開発地域(ZPD)質問、メタ認知的質問(メタ認知的質問)など10の質問戦略を取り入れている。
さらに,異なる認知レベルにおける生徒の異なる指導戦略を設計し,よりターゲットを絞った指導指導を行う。
EduDialをベースとしたEduDial-LLM 32Bをさらに発展させ,LLMの教育能力を体系的に評価する11次元評価フレームワークを提案する。
一方、私たちのEduDial-LLMは、すべての指標のベースラインを一貫して上回り、大きな成果を上げています。
コードはhttps://github.com/Mind-Lab-ECNU/EduDial/tree/mainで公開されている。
関連論文リスト
- SID: Benchmarking Guided Instruction Capabilities in STEM Education with a Socratic Interdisciplinary Dialogues Dataset [7.233293220739224]
LLMの高次誘導能力を評価するために設計された最初のベンチマークであるSIDを紹介する。
私たちのコントリビューションには、48の複雑なSTEMプロジェクトにわたる10,000の対話ターンの大規模なデータセットが含まれています。
ベースライン実験は、最先端のLLMでさえ効果的なガイド付き対話を実行するのに苦労していることを確認した。
論文 参考訳(メタデータ) (2025-08-06T15:49:26Z) - Benchmarking the Pedagogical Knowledge of Large Language Models [4.417539128489408]
本稿では,その教育的知識に基づいて,大規模言語モデルを評価するための新しいデータセットであるThe Pedagogy Benchmarkを紹介する。
これらのベンチマークは、教師のための専門的開発試験から得られた、慎重にキュレートされた質問に基づいて構築されている。
本報告では, 教育的知識に関する質問に対して, 精度が28%から89%の範囲で, 97モデルの結果を報告する。
論文 参考訳(メタデータ) (2025-06-23T14:49:01Z) - Multimodal Assessment of Classroom Discourse Quality: A Text-Centered Attention-Based Multi-Task Learning Approach [7.273857543125784]
本研究は,GTI(Global Teaching InSights)観測プロトコルにおける3つの談話コンポーネントの品質を評価するために,テキスト中心のマルチモーダル融合アーキテクチャを提案する。
我々は、テキスト、オーディオ、ビデオストリームからのモーダル間相互作用とモーダル間相互作用をキャプチャするために注意機構を用いる。
本研究は,本課題へのアプローチにおけるテキストモダリティの優位性を強調した。
論文 参考訳(メタデータ) (2025-05-12T09:24:21Z) - Exploring Knowledge Tracing in Tutor-Student Dialogues using LLMs [49.18567856499736]
本研究では,大規模言語モデル(LLM)が対話学習を支援することができるかどうかを検討する。
我々は,学習者の知識レベルを対話全体にわたって追跡するために,ラベル付きデータに知識追跡(KT)手法を適用した。
我々は,2つの学習対話データセットの実験を行い,従来のKT手法よりも学生の反応の正しさを予測できる新しいLCM-based method LLMKTが優れていることを示す。
論文 参考訳(メタデータ) (2024-09-24T22:31:39Z) - MT-Bench-101: A Fine-Grained Benchmark for Evaluating Large Language Models in Multi-Turn Dialogues [58.33076950775072]
MT-Bench-101は,マルチターン対話におけるLarge Language Models (LLMs) の細粒度化能力を評価するために設計された。
1388のタスクで4208のターンが1388のマルチターン対話にまたがる3階層の階層的能力分類を構築した。
次に,MT-Bench-101に基づく21のLLMを評価し,能力とタスクの観点から総合的な分析を行った。
論文 参考訳(メタデータ) (2024-02-22T18:21:59Z) - Neural Multi-Task Learning for Teacher Question Detection in Online
Classrooms [50.19997675066203]
教師の音声記録から質問を自動的に検出するエンドツーエンドのニューラルネットワークフレームワークを構築している。
マルチタスク学習手法を取り入れることで,質問の種類によって意味的関係の理解を深めることが可能となる。
論文 参考訳(メタデータ) (2020-05-16T02:17:04Z) - Masking Orchestration: Multi-task Pretraining for Multi-role Dialogue
Representation Learning [50.5572111079898]
マルチロール対話理解は、質問応答、行動分類、対話要約など、幅広い多様なタスクを含む。
対話コーパスは豊富に利用可能であるが、特定の学習タスクのためのラベル付きデータは非常に不足しており、高価である。
本研究では,教師なし事前学習タスクを用いた対話文脈表現学習について検討する。
論文 参考訳(メタデータ) (2020-02-27T04:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。