論文の概要: Role-Playing Simulation Games using ChatGPT
- arxiv url: http://arxiv.org/abs/2402.09161v1
- Date: Wed, 14 Feb 2024 13:24:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 15:29:54.639577
- Title: Role-Playing Simulation Games using ChatGPT
- Title(参考訳): ChatGPTを用いたロールプレイングシミュレーションゲーム
- Authors: Rita Stampfl, Igor Ivki\'c and Barbara Geyer
- Abstract要約: 大言語モデル(LLM)は、ロールプレイングシミュレーションゲームシナリオでChatGPTを使用して、アクティブな学習を促進することで、教育の質を高めることができる。
本稿では,ChatGPTを用いて実生活シナリオを実践することで,LLMが学習に対する学生の関心を高める方法について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Since the COVID-19 pandemic, educational institutions have embarked on
digital transformation projects. The success of these projects depends on
integrating new technologies and understanding the needs of digitally literate
students. The "learning by doing" approach suggests that real success in
learning new skills is achieved when students can try out and practise these
skills. In this article, we demonstrate how Large Language Models (LLMs) can
enhance the quality of teaching by using ChatGPT in a role-playing simulation
game scenario to promote active learning. Moreover, we discuss how LLMs can
boost students' interest in learning by allowing them to practice real-life
scenarios using ChatGPT.
- Abstract(参考訳): 新型コロナウイルスのパンデミック以降、教育機関はデジタルトランスフォーメーションプロジェクトを開始した。
これらのプロジェクトの成功は、新しいテクノロジーの統合と、デジタル字幕の学生のニーズの理解にかかっている。
実践による学習」アプローチは、学生がこれらのスキルを試し実践できると、新しいスキルを学ぶ真の成功が達成されることを示唆している。
本稿では,ChatGPTをロールプレイングシミュレーションゲームシナリオで用い,能動的学習を促進することで,Large Language Models(LLMs)が教育の質を高めることを実証する。
さらに,ChatGPTを用いて実生活シナリオを実践することで,LLMが学習に対する学生の関心を高める方法について論じる。
関連論文リスト
- Exploring Knowledge Tracing in Tutor-Student Dialogues [53.52699766206808]
本稿では,教師と学生の対話における知識追跡(KT)の最初の試みについて述べる。
そこで本研究では,対話の各ターンに係わる知識コンポーネントやスキルを同定する手法を提案する。
次に,得られたラベル付きデータに様々なKT手法を適用し,対話全体を通して学生の知識レベルを追跡する。
論文 参考訳(メタデータ) (2024-09-24T22:31:39Z) - Revolutionising Role-Playing Games with ChatGPT [0.0]
本研究の目的は,AIによるシミュレーションが学生の学習経験に与える影響を分析することである。
ヴィゴツキーの社会文化的理論に基づいて、ChatGPTは学生に戦略的意思決定プロセスのより深い理解を与えるために用いられた。
論文 参考訳(メタデータ) (2024-07-02T08:21:40Z) - Simulating Classroom Education with LLM-Empowered Agents [52.62324491261461]
SimClassは、ユーザ参加を含むマルチエージェントの教室シミュレーションフレームワークである。
代表的クラスの役割を認識し、自動授業のための新しいクラス制御機構を導入する。
我々は,LLMが従来の教室のインタラクションパターンを効果的にシミュレートし,ユーザエクスペリエンスを向上させることを実証した。
論文 参考訳(メタデータ) (2024-06-27T14:51:07Z) - MathVC: An LLM-Simulated Multi-Character Virtual Classroom for Mathematics Education [19.549398447035376]
大規模言語モデル(LLM)は、最近、数学的な問題をモデル化し、文字をシミュレートする双方で強力な能力を示した。
複数のLDMを模擬した学生用仮想教室であるMATHVCについて紹介する。
シミュレーションにMMドメイン知識を統合すること、文字シミュレーションの基盤としてシンボルスキーマを定義すること、対話手順を推進するためにプラットフォームレベルでメタプランナを設計すること、の3つの革新を提案する。
論文 参考訳(メタデータ) (2024-04-10T03:35:51Z) - ST-LLM: Large Language Models Are Effective Temporal Learners [58.79456373423189]
大規模言語モデル(LLM)は、テキストの理解と生成において印象的な能力を示した。
ビデオベースの対話システムでビデオを効果的にエンコードし、理解する方法は、まだ解決されていない。
LLM内部の時空間シーケンスをモデル化したビデオLLMベースラインST-LLMを提案する。
論文 参考訳(メタデータ) (2024-03-30T10:11:26Z) - Investigation of the effectiveness of applying ChatGPT in Dialogic Teaching Using Electroencephalography [6.34494999013996]
大規模言語モデル(LLM)には、知識を解釈し、質問に答え、文脈を考える能力がある。
この研究は、34人の大学生を参加者として募集し、ランダムに2つのグループに分けられた。
実験群はChatGPTを用いて対話型指導を行い,コントロール群は人間教師と対話した。
論文 参考訳(メタデータ) (2024-03-25T12:23:12Z) - Large Language Model-Driven Classroom Flipping: Empowering
Student-Centric Peer Questioning with Flipped Interaction [3.1473798197405953]
本稿では,大規模言語モデルにおけるフリップ相互作用に基づく教室のフリップの教育的アプローチについて検討する。
欠落した相互作用は、プロンプトに対する回答ではなく、言語モデルを使用して質問を生成することである。
本稿では,クイズ・クイズ・ルーチンとクイズ・プイズ・クイズ・ルーチンとを用いて,クイズ・クイズ・クイズ・クイズとアクイズ・クイズ・クイズ・インシデント・エンジニアリングを統合するワークフローを提案する。
論文 参考訳(メタデータ) (2023-11-14T15:48:19Z) - Mastering Robot Manipulation with Multimodal Prompts through Pretraining and Multi-task Fine-tuning [49.92517970237088]
我々はマルチモーダルなプロンプトを理解するためにロボットを訓練する問題に取り組む。
このようなタスクは、視覚と言語信号の相互接続と相補性を理解するロボットの能力にとって大きな課題となる。
マルチモーダルプロンプトを用いてロボット操作を行うためのポリシーを学習する効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-14T22:24:58Z) - ChatGPT Beyond English: Towards a Comprehensive Evaluation of Large
Language Models in Multilingual Learning [70.57126720079971]
大規模言語モデル(LLM)は、自然言語処理(NLP)において最も重要なブレークスルーとして登場した。
本稿では,高,中,低,低リソースの37言語を対象として,ChatGPTを7つのタスクで評価する。
従来のモデルと比較すると,様々なNLPタスクや言語に対するChatGPTの性能は低下していた。
論文 参考訳(メタデータ) (2023-04-12T05:08:52Z) - What Would a Teacher Do? Predicting Future Talk Moves [19.952531500315757]
未来話移動予測(FTMP)と呼ばれる新しいタスクを導入する。
会話履歴とそれに対応する会話の動きが与えられたとき、次の会話の動きを予測する。
このタスクのためのニューラルネットワークモデルを導入し、複数のベースラインを大きなマージンで上回ります。
論文 参考訳(メタデータ) (2021-06-09T17:45:16Z) - Interaction-limited Inverse Reinforcement Learning [50.201765937436654]
本稿では,教師の視点をカバーしたカリキュラム逆強化学習(CIRL)と,学習者の視点に着目した自己適用逆強化学習(SPIRL)の2つの訓練戦略を提案する。
シミュレーション実験と実ロボットを用いた実験により,CIRLの無作為教師やSPIRLのバッチ学習者よりも高速な学習が可能であることを示す。
論文 参考訳(メタデータ) (2020-07-01T12:31:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。