論文の概要: Pedagogical Alignment for Vision-Language-Action Models: A Comprehensive Framework for Data, Architecture, and Evaluation in Education
- arxiv url: http://arxiv.org/abs/2601.13876v1
- Date: Tue, 20 Jan 2026 11:43:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.290259
- Title: Pedagogical Alignment for Vision-Language-Action Models: A Comprehensive Framework for Data, Architecture, and Evaluation in Education
- Title(参考訳): ビジョン・ランゲージ・アクションモデルのための教育的アライメント:教育におけるデータ・アーキテクチャ・評価の包括的枠組み
- Authors: Unggi Lee, Jahyun Jeong, Sunyoung Shin, Haeun Park, Jeongsu Moon, Youngchang Song, Jaechang Shim, JaeHwan Lee, Yunju Noh, Seungwon Choi, Ahhyun Kim, TaeHyeon Kim, Kyungtae Joo, Taeyeong Kim, Gyeonggeon Lee,
- Abstract要約: 軽量VLAモデルに教育的アライメントを適用するフレームワークであるtextitPedagogical VLA Frameworkを提案する。
物理,化学,生物学,地球科学にまたがる5つの科学実験において,教育的VLAフレームワークを評価した。
- 参考スコア(独自算出の注目度): 3.827767386780446
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Science demonstrations are important for effective STEM education, yet teachers face challenges in conducting them safely and consistently across multiple occasions, where robotics can be helpful. However, current Vision-Language-Action (VLA) models require substantial computational resources and sacrifice language generation capabilities to maximize efficiency, making them unsuitable for resource-constrained educational settings that require interpretable, explanation-generating systems. We present \textit{Pedagogical VLA Framework}, a framework that applies pedagogical alignment to lightweight VLA models through four components: text healing to restore language generation capabilities, large language model (LLM) distillation to transfer pedagogical knowledge, safety training for educational environments, and pedagogical evaluation adjusted to science education contexts. We evaluate Pedagogical VLA Framework across five science demonstrations spanning physics, chemistry, biology, and earth science, using an evaluation framework developed in collaboration with science education experts. Our evaluation assesses both task performance (success rate, protocol compliance, efficiency, safety) and pedagogical quality through teacher surveys and LLM-as-Judge assessment. We additionally provide qualitative analysis of generated texts. Experimental results demonstrate that Pedagogical VLA Framework achieves comparable task performance to baseline models while producing contextually appropriate educational explanations.
- Abstract(参考訳): 科学のデモンストレーションは、効果的なSTEM教育にとって重要であるが、教師は、ロボット工学が役に立つ複数の機会において、安全かつ一貫して実施する上で、課題に直面している。
しかし、現在のVision-Language-Action(VLA)モデルは、効率を最大化するためにかなりの計算資源と言語生成能力を必要としており、解釈可能な説明生成システムを必要とするリソース制約のある教育環境には適さない。
本稿では, 言語生成能力の回復のためのテキストヒーリング, 教育的知識の伝達のための大規模言語モデル (LLM) 蒸留, 教育環境の安全訓練, 理科教育の文脈に応じた教育的評価の4つのコンポーネントを通じて, 軽量VLAモデルに教育的アライメントを適用するフレームワークである。
物理・化学・生物学・地球科学を対象とする5つの科学実演会を対象とした教育VLAフレームワークの評価を,理科教育の専門家と共同で行った評価フレームワークを用いて行った。
本評価は,教師調査とLCM-as-Judgeによる課題性能(success rate, protocol compliance, efficiency, safety)と教育的品質(pedagogical quality)の両方を評価する。
また、生成したテキストの質的分析も提供する。
実験の結果, Pedagogical VLA Frameworkは, 文脈的に適切な教育的説明を生成しながら, ベースラインモデルに匹敵するタスク性能を達成していることがわかった。
関連論文リスト
- COGENT: A Curriculum-oriented Framework for Generating Grade-appropriate Educational Content [35.360208404408496]
COGENTは、カリキュラム指向の教育コンテンツを生成するためのフレームワークである。
3つのカリキュラムコンポーネント(科学概念、コアアイデア、学習目標)を組み込んでいます。
我々は、長さ、語彙、文の複雑さを通じて可読性を制御する。
論文 参考訳(メタデータ) (2025-06-11T03:27:50Z) - EducationQ: Evaluating LLMs' Teaching Capabilities Through Multi-Agent Dialogue Framework [9.76455227840645]
大規模言語モデル(LLM)は、ますます教育ツールとして機能するが、その教育能力を評価することは困難である。
本研究では,動的シナリオをシミュレートして学習能力を効果的に評価するマルチエージェント対話フレームワークであるEducationQを紹介する。
論文 参考訳(メタデータ) (2025-04-21T07:48:20Z) - LLM Agents for Education: Advances and Applications [49.3663528354802]
大規模言語モデル(LLM)エージェントは、タスクの自動化と多様な教育アプリケーションにおけるイノベーションの推進において、顕著な能力を示した。
本調査は、LLMエージェントの総合的技術概要を提供することを目的としており、学習者や教育者のより大きな利益に対する影響を高めるために、さらなる研究と協力を促進することを目的としている。
論文 参考訳(メタデータ) (2025-03-14T11:53:44Z) - MathTutorBench: A Benchmark for Measuring Open-ended Pedagogical Capabilities of LLM Tutors [82.91830877219822]
我々は、総合的なチューリングモデル評価のためのオープンソースのベンチマークであるMathTutorBenchを紹介する。
MathTutorBenchには、ダイアログベースの教育における科学の研究によって定義された、家庭教師の能力をカバーするデータセットとメトリクスが含まれている。
閉鎖的およびオープンウェイトなモデルの幅広いセットを評価し、問題解決能力によって示される課題の専門知識が、すぐには良い教育に変換されないことを発見した。
論文 参考訳(メタデータ) (2025-02-26T08:43:47Z) - When LLMs Learn to be Students: The SOEI Framework for Modeling and Evaluating Virtual Student Agents in Educational Interaction [12.070907646464537]
教室シナリオにおける人格対応型仮想学生エージェント(LVSA)の構築と評価のためのSOEIフレームワークを提案する。
LoRAファインチューニングとエキスパートインフォームドプロンプト設計により,5つのLVSAをBig Five特性に基づいて生成する。
その結果,(1)LLMをベースとした学生エージェントのための教育的,心理的に基盤とした生成パイプライン,(2)行動リアリズムのためのハイブリッドでスケーラブルな評価フレームワーク,(3)LVSAsの教育的有用性に関する実証的な知見が得られた。
論文 参考訳(メタデータ) (2024-10-21T07:18:24Z) - Evaluating and Optimizing Educational Content with Large Language Model Judgments [52.33701672559594]
言語モデル(LM)を教育専門家として活用し,学習結果に対する様々な指導の影響を評価する。
本稿では,一方のLMが他方のLMの判断を報酬関数として利用して命令材料を生成する命令最適化手法を提案する。
ヒトの教師によるこれらのLM生成ワークシートの評価は、LM判定と人間の教師の嗜好との間に有意な整合性を示す。
論文 参考訳(メタデータ) (2024-03-05T09:09:15Z) - Opportunities and Challenges in Neural Dialog Tutoring [54.07241332881601]
言語学習のための2つの対話学習データセットを用いて、様々な生成言語モデルを厳密に分析する。
現在のアプローチでは、制約のある学習シナリオでチューリングをモデル化できますが、制約の少ないシナリオではパフォーマンスが悪くなります。
人的品質評価では, モデルと接地木アノテーションの両方が, 同等のチュータリングの点で低い性能を示した。
論文 参考訳(メタデータ) (2023-01-24T11:00:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。