論文の概要: Our Coding Adventure: Using LLMs to Personalise the Narrative of a Tangible Programming Robot for Preschoolers
- arxiv url: http://arxiv.org/abs/2506.20982v1
- Date: Thu, 26 Jun 2025 03:54:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:09.963634
- Title: Our Coding Adventure: Using LLMs to Personalise the Narrative of a Tangible Programming Robot for Preschoolers
- Title(参考訳): プログラミング・アドベンチャー:LLMを使って幼児向けタンジブル・プログラミング・ロボットの物語をパーソナライズする
- Authors: Martin Ruskov,
- Abstract要約: そこで我々は,Cubettoのゲームストーリーを迅速にプロトタイプする形式化されたプロセスの初期バージョンを開発した。
プロセス、使用済みの材料とプロンプト、学習経験と成果を文書化する。
我々は,本手法が幼稚園の授業に適していると考え,現実世界の教育環境においてさらなる実験を行う計画を立てている。
- 参考スコア(独自算出の注目度): 0.5099081649205313
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Finding balanced ways to employ Large Language Models (LLMs) in education is a challenge due to inherent risks of poor understanding of the technology and of a susceptible audience. This is particularly so with younger children, who are known to have difficulties with pervasive screen time. Working with a tangible programming robot called Cubetto, we propose an approach to benefit from the capabilities of LLMs by employing such models in the preparation of personalised storytelling, necessary for preschool children to get accustomed to the practice of commanding the robot. We engage in action research to develop an early version of a formalised process to rapidly prototype game stories for Cubetto. Our approach has both reproducible results, because it employs open weight models, and is model-agnostic, because we test it with 5 different LLMs. We document on one hand the process, the used materials and prompts, and on the other the learning experience and outcomes. We deem the generation successful for the intended purposes of using the results as a teacher aid. Testing the models on 4 different task scenarios, we encounter issues of consistency and hallucinations and document the corresponding evaluation process and attempts (some successful and some not) to overcome these issues. Importantly, the process does not expose children to LLMs directly. Rather, the technology is used to help teachers easily develop personalised narratives on children's preferred topics. We believe our method is adequate for preschool classes and we are planning to further experiment in real-world educational settings.
- Abstract(参考訳): 教育にLarge Language Models(LLM)を採用するためのバランスの取れた方法を見つけることは、技術や感受性のある聴衆の理解不足による固有のリスクのため、課題である。
これは、スクリーンタイムの広範化に苦慮していることで知られる幼い子供たちにとって、特にそうである。
そこで,本研究では,子どもがロボットの指揮を執ることに慣れるために必要な,個人化されたストーリーテリングの準備に,そのようなモデルを採用することで,LLMの能力の恩恵を受けるためのアプローチを提案する。
我々は,Cubettoのゲームストーリーを迅速にプロトタイプする形式化されたプロセスの初期バージョンを開発するために,アクションリサーチに従事している。
提案手法の再現性は, オープンウェイトモデルを用いており, モデルに依存しない。
プロセス、使用済みの材料とプロンプト、学習経験と成果を文書化する。
我々は、その結果を教師の援助として利用する目的のために、その世代が成功したとみなす。
4つの異なるタスクシナリオでモデルをテストし、一貫性と幻覚の問題に直面し、対応する評価プロセスとこれらの問題を克服するための試み(一部は成功し、一部は失敗)を文書化します。
重要なことに、このプロセスは子供たちをLSMに直接公開しない。
むしろ、この技術は、教師が子どもが好むトピックについて、個人化された物語を簡単に開発するのを助けるために使われる。
我々は,本手法が幼稚園の授業に適していると考え,現実世界の教育環境においてさらなる実験を行う計画を立てている。
関連論文リスト
- Applying LLM-Powered Virtual Humans to Child Interviews in Child-Centered Design [0.0]
本研究は,子どもの面接に適したLLMを用いた仮想人間の設計ガイドラインを確立する。
ChatGPTベースのプロンプトエンジニアリングを用いて、3つの異なるヒューマンAI(LLM-Auto, LLM-Interview, LLM-Analyze)を開発した。
その結果、LLM-Analyzeワークフローは、長い応答を引き出すことで、他のワークフローよりも優れていた。
論文 参考訳(メタデータ) (2025-04-28T17:35:46Z) - Benchmarking LLMs for Mimicking Child-Caregiver Language in Interaction [4.109949110722246]
LLMは人間のような対話を生成できるが、初期の子どもと大人の交流をシミュレートする能力はほとんど解明されていない。
現状のLSMは、単語と発話レベルにおいて、子どもと介護者の対話を近似することができるが、子どもと介護者の分散パターンの再現に苦慮し、アライメントを誇張し、人間によって示される多様性のレベルに到達できなかった。
論文 参考訳(メタデータ) (2024-12-12T14:43:03Z) - Towards the Pedagogical Steering of Large Language Models for Tutoring: A Case Study with Modeling Productive Failure [36.83786872708736]
1対1の授業は、最も効果的な教育方法の1つである。
我々は、LSMプロンプトを最適化し、遷移グラフとして表される事前定義されたマルチターンチューリング計画に従うアルゴリズムであるStratLを開発した。
ケーススタディとして,先進的で効果的な学習設計であるProductive Failure (PF) に続く,高校数学のプロトタイプチューターを作成する。
論文 参考訳(メタデータ) (2024-10-03T16:15:41Z) - Exploring Knowledge Tracing in Tutor-Student Dialogues using LLMs [49.18567856499736]
本研究では,大規模言語モデル(LLM)が対話学習を支援することができるかどうかを検討する。
我々は,学習者の知識レベルを対話全体にわたって追跡するために,ラベル付きデータに知識追跡(KT)手法を適用した。
我々は,2つの学習対話データセットの実験を行い,従来のKT手法よりも学生の反応の正しさを予測できる新しいLCM-based method LLMKTが優れていることを示す。
論文 参考訳(メタデータ) (2024-09-24T22:31:39Z) - Do Language Models Exhibit the Same Cognitive Biases in Problem Solving as Human Learners? [140.9751389452011]
本研究では,大言語モデル(LLM)の偏りを,算術語問題を解く際に,子どもに知られているものと関連づけて検討する。
我々は,これらの各テストに対して,問題特徴のきめ細かい制御を可能にするニューロシンボリックアプローチを用いて,新しい単語問題を生成する。
論文 参考訳(メタデータ) (2024-01-31T18:48:20Z) - Adapting Large Language Models for Education: Foundational Capabilities, Potentials, and Challenges [60.62904929065257]
大規模言語モデル(LLM)は、個々の要求を解釈することでこの問題を解決する可能性を提供する。
本稿では, 数学, 文章, プログラミング, 推論, 知識に基づく質問応答など, 教育能力に関する最近のLLM研究を概観する。
論文 参考訳(メタデータ) (2023-12-27T14:37:32Z) - Character-LLM: A Trainable Agent for Role-Playing [67.35139167985008]
大規模言語モデル(LLM)は、人間の振る舞いをシミュレートするエージェントとして用いられる。
本稿では, ベートーヴェン, クレオパトラ女王, ユリウス・カエサルなど, LLM に特定の人物として行動するように教えるキャラクタ-LLMを紹介する。
論文 参考訳(メタデータ) (2023-10-16T07:58:56Z) - Aligning Large Language Models with Human: A Survey [53.6014921995006]
広範囲なテキストコーパスで訓練されたLarge Language Models (LLM) は、幅広い自然言語処理(NLP)タスクの先導的なソリューションとして登場した。
その顕著な性能にもかかわらず、これらのモデルは、人間の指示を誤解したり、偏見のあるコンテンツを生成したり、事実的に誤った情報を生成するといった、ある種の制限を受ける傾向にある。
本調査では,これらのアライメント技術の概要について概観する。
論文 参考訳(メタデータ) (2023-07-24T17:44:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。