論文の概要: Tutorly: Turning Programming Videos Into Apprenticeship Learning Environments with LLMs
- arxiv url: http://arxiv.org/abs/2405.12946v1
- Date: Tue, 21 May 2024 17:17:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-22 17:33:24.769990
- Title: Tutorly: Turning Programming Videos Into Apprenticeship Learning Environments with LLMs
- Title(参考訳): Tutorly:LLMによるプログラミングビデオの学習環境への転換
- Authors: Wengxi Li, Roy Pea, Nick Haber, Hari Subramonyam,
- Abstract要約: 我々の研究は、プログラミングビデオを認知的見習いのフレームワークを使って1対1の学習体験に変換する。
TutorlyはJupyterLabとして開発され、学習者はパーソナライズされた学習目標を設定することができる。
- 参考スコア(独自算出の注目度): 1.6961276655027102
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online programming videos, including tutorials and streamcasts, are widely popular and contain a wealth of expert knowledge. However, effectively utilizing these resources to achieve targeted learning goals can be challenging. Unlike direct tutoring, video content lacks tailored guidance based on individual learning paces, personalized feedback, and interactive engagement necessary for support and monitoring. Our work transforms programming videos into one-on-one tutoring experiences using the cognitive apprenticeship framework. Tutorly, developed as a JupyterLab Plugin, allows learners to (1) set personalized learning goals, (2) engage in learning-by-doing through a conversational LLM-based mentor agent, (3) receive guidance and feedback based on a student model that steers the mentor moves. In a within-subject study with 16 participants learning exploratory data analysis from a streamcast, Tutorly significantly improved their performance from 61.9% to 76.6% based on a post-test questionnaire. Tutorly demonstrates the potential for enhancing programming video learning experiences with LLM and learner modeling.
- Abstract(参考訳): チュートリアルやストリームキャストを含むオンラインプログラミングビデオは広く普及しており、豊富な専門家の知識を含んでいる。
しかし,これらの資源を効果的に活用して学習目標を達成することは困難である。
直接学習とは異なり、ビデオコンテンツは個別の学習ペース、パーソナライズされたフィードバック、サポートとモニタリングに必要なインタラクティブなエンゲージメントに基づく調整されたガイダンスが欠けている。
我々の研究は、プログラミングビデオを認知的見習いのフレームワークを使って1対1の学習体験に変換する。
TutorlyはJupyterLab Pluginとして開発され,(1)パーソナライズされた学習目標の設定,(2)会話型LLMベースのメンターエージェントによる学習活動,(3)メンターの動きを操縦する学生モデルに基づく指導とフィードバックが可能である。
ストリームキャストから探索データ分析を学習した16名の被験者を対象にした調査では、テスト後のアンケートに基づいて、Tutorlyは61.9%から76.6%に改善した。
Tutorlyは、LLMと学習者モデリングを用いて、プログラミングビデオ学習体験を強化する可能性を実証している。
関連論文リスト
- Language-Model-Assisted Bi-Level Programming for Reward Learning from Internet Videos [48.2044649011213]
我々は、強化学習エージェントがインターネットビデオから報酬を学べるように、言語モデル支援のバイレベルプログラミングフレームワークを導入する。
このフレームワークは、視覚言語モデル(VLM)が学習者の振る舞いをエキスパートビデオと比較することでフィードバックを提供する上位レベルと、このフィードバックを報酬更新に変換する大規模言語モデル(LLM)の下位レベルである。
そこで本研究では,YouTubeビデオから報酬を学習する手法を検証するとともに,提案手法が生物エージェントのエキスパートビデオから効率的に報酬をデザインできることを示した。
論文 参考訳(メタデータ) (2024-10-11T22:31:39Z) - Investigating Developers' Preferences for Learning and Issue Resolution Resources in the ChatGPT Era [1.3124513975412255]
最近のトレンドはビデオチュートリアルのような魅力的なフォーマットを好んでいる。
ChatGPTのような大規模言語モデル(LLM)の出現は、新しい学習パラダイムを提示します。
我々は,ソフトウェア開発者とコンピュータサイエンスの学生を対象に,341の回答を集め,そのうち268の回答を完成・分析した。
論文 参考訳(メタデータ) (2024-10-10T22:57:29Z) - Is the Lecture Engaging for Learning? Lecture Voice Sentiment Analysis for Knowledge Graph-Supported Intelligent Lecturing Assistant (ILA) System [0.060227699034124595]
本システムは,音声,コンテンツ,教育のリアルタイム分析を通じて,生徒の学習力を高めるためのインストラクターを支援するように設計されている。
講義音声感情分析のケーススタディとして,3000以上の1分間の講義音声クリップからなるトレーニングセットを開発した。
私たちの究極のゴールは、現代の人工知能技術を活用することで、インストラクターがより積極的に効果的に教えることを支援することです。
論文 参考訳(メタデータ) (2024-08-20T02:22:27Z) - ExpertAF: Expert Actionable Feedback from Video [81.46431188306397]
本研究では,身体活動を行う人の映像から行動可能なフィードバックを生成する新しい手法を提案する。
提案手法は,映像のデモンストレーションとそれに伴う3Dボディーポーズを取り,専門家による解説を生成する。
提案手法は,マルチモーダルな入力の組み合わせを解析し,フルスペクトルで実用的なコーチングを出力することができる。
論文 参考訳(メタデータ) (2024-08-01T16:13:07Z) - Experiential Co-Learning of Software-Developing Agents [83.34027623428096]
大規模言語モデル(LLM)は、特にソフトウェア開発において、様々な領域に大きな変化をもたらした。
本稿では,新しいLLM学習フレームワークであるExperiential Co-Learningを紹介する。
実験では、このフレームワークにより、エージェントは、目に見えないソフトウェア開発タスクをより効果的に対処できることを示した。
論文 参考訳(メタデータ) (2023-12-28T13:50:42Z) - Large Language Model-Driven Classroom Flipping: Empowering
Student-Centric Peer Questioning with Flipped Interaction [3.1473798197405953]
本稿では,大規模言語モデルにおけるフリップ相互作用に基づく教室のフリップの教育的アプローチについて検討する。
欠落した相互作用は、プロンプトに対する回答ではなく、言語モデルを使用して質問を生成することである。
本稿では,クイズ・クイズ・ルーチンとクイズ・プイズ・クイズ・ルーチンとを用いて,クイズ・クイズ・クイズ・クイズとアクイズ・クイズ・クイズ・インシデント・エンジニアリングを統合するワークフローを提案する。
論文 参考訳(メタデータ) (2023-11-14T15:48:19Z) - InternVid: A Large-scale Video-Text Dataset for Multimodal Understanding
and Generation [90.71796406228265]
InternVidは大規模なビデオ中心のマルチモーダルデータセットで、強力で転送可能なビデオテキスト表現の学習を可能にする。
InternVidデータセットは700万本以上のビデオが760万時間近く持続し、合計4.1Bワードの詳細な記述を伴う234万本のビデオクリップが生成される。
論文 参考訳(メタデータ) (2023-07-13T17:58:32Z) - Self-Supervised Learning for Videos: A Survey [70.37277191524755]
自己教師型学習は、画像ドメインとビデオドメインの両方で有望である。
本稿では,ビデオ領域に着目した自己教師型学習における既存のアプローチについて概観する。
論文 参考訳(メタデータ) (2022-06-18T00:26:52Z) - Motivating Learners in Multi-Orchestrator Mobile Edge Learning: A
Stackelberg Game Approach [54.28419430315478]
Mobile Edge Learningは、異種エッジデバイス上で機械学習モデルの分散トレーニングを可能にする。
MELでは、十分なトレーニングデータやコンピューティングリソースを入手することなく、トレーニング性能が低下する。
そこで我々は2ラウンドのStackelbergゲームとしてオーケストレータとラーナーの相互作用を定式化するインセンティブ機構を提案する。
論文 参考訳(メタデータ) (2021-09-25T17:27:48Z) - Designing a Web Application for Simple and Collaborative Video
Annotation That Meets Teaching Routines and Educational Requirements [0.0]
我々は、シンプルで協調的なビデオアノテーションのためのWebアプリケーションTRAVIS GOを開発した。
TRAVIS GOは、確立した授業設定内で素早く簡単に利用できる。
主要な戦術的機能としては、投稿のタグ付けとコメント、プロジェクトの共有とエクスポート、ライブコラボレーションの作業などがある。
論文 参考訳(メタデータ) (2021-05-09T21:02:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。