論文の概要: CogGen: A Learner-Centered Generative AI Architecture for Intelligent Tutoring with Programming Video
- arxiv url: http://arxiv.org/abs/2506.20600v1
- Date: Wed, 25 Jun 2025 16:39:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.858664
- Title: CogGen: A Learner-Centered Generative AI Architecture for Intelligent Tutoring with Programming Video
- Title(参考訳): CogGen: プログラミングビデオによるインテリジェントチューニングのための学習中心のジェネレーティブAIアーキテクチャ
- Authors: Wengxi Li, Roy Pea, Nick Haber, Hari Subramonyam,
- Abstract要約: CogGenは学習者中心のAIアーキテクチャで、プログラミングビデオを対話的で適応的な学習体験に変換する。
この研究は、対話型AI会話で構造化された学生モデリングをブリッジすることで、AIによる学習を前進させる。
- 参考スコア(独自算出の注目度): 1.6961276655027102
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce CogGen, a learner-centered AI architecture that transforms programming videos into interactive, adaptive learning experiences by integrating student modeling with generative AI tutoring based on the Cognitive Apprenticeship framework. The architecture consists of three components: (1) video segmentation by learning goals, (2) a conversational tutoring engine applying Cognitive Apprenticeship strategies, and (3) a student model using Bayesian Knowledge Tracing to adapt instruction. Our technical evaluation demonstrates effective video segmentation accuracy and strong pedagogical alignment across knowledge, method, action, and interaction layers. Ablation studies confirm the necessity of each component in generating effective guidance. This work advances AI-powered tutoring by bridging structured student modeling with interactive AI conversations, offering a scalable approach to enhancing video-based programming education.
- Abstract(参考訳): 我々は,プログラミング映像をインタラクティブな適応学習体験に変換する,学習中心のAIアーキテクチャであるCogGenを紹介した。
本アーキテクチャは,(1)学習目標によるビデオセグメンテーション,(2)認知的適応戦略を適用した会話型学習エンジン,(3)ベイズ知識学習を用いた学生モデルからなる。
我々の技術評価は,知識層,手法層,行動層,相互作用層をまたいだ効果的な映像分割精度と強力な教育的アライメントを示すものである。
アブレーション研究は、効果的なガイダンスを生成する上で、各コンポーネントの必要性を裏付けるものである。
この研究は、インタラクティブなAI会話で構造化された学生モデリングをブリッジすることで、ビデオベースのプログラミング教育を強化するスケーラブルなアプローチを提供する。
関連論文リスト
- VideoWorld: Exploring Knowledge Learning from Unlabeled Videos [119.35107657321902]
この研究は、深層生成モデルが視覚入力のみから複雑な知識を学習できるかどうかを考察する。
我々は、未ラベルのビデオデータに基づいて訓練された自動回帰ビデオ生成モデルであるVideoWorldを開発し、ビデオベースのGoとロボット制御タスクにおける知識獲得能力をテストする。
論文 参考訳(メタデータ) (2025-01-16T18:59:10Z) - Tutorly: Turning Programming Videos Into Apprenticeship Learning Environments with LLMs [1.6961276655027102]
我々の研究は、プログラミングビデオを認知的見習いのフレームワークを使って1対1の学習体験に変換する。
TutorlyはJupyterLabとして開発され、学習者はパーソナライズされた学習目標を設定することができる。
論文 参考訳(メタデータ) (2024-05-21T17:17:34Z) - How to Build an Adaptive AI Tutor for Any Course Using Knowledge Graph-Enhanced Retrieval-Augmented Generation (KG-RAG) [5.305156933641317]
知的学習システム(ITS)におけるLarge Language Models (LLMs)は、パーソナライズされた教育に変革をもたらす機会を提供する。
現在の実装では、2つの重要な課題に直面している。
本稿では,構造化知識表現と文脈認識検索を統合した新しいフレームワークである知識グラフ強化検索(RAG)を提案する。
論文 参考訳(メタデータ) (2023-11-29T15:02:46Z) - Knowledge-enhanced Agents for Interactive Text Games [16.055119735473017]
テキストベースのゲームにおいてエージェントの機能的接地を改善するための知識注入フレームワークを提案する。
学習に基づくエージェントに注入するドメイン知識の2つの形態について考察する。
我々のフレームワークは、強化学習エージェントと言語モデルエージェントの2つの代表的なモデルクラスをサポートしている。
論文 参考訳(メタデータ) (2023-05-08T23:31:39Z) - MaMMUT: A Simple Architecture for Joint Learning for MultiModal Tasks [59.09343552273045]
本稿では,これらの異なる視覚言語タスクの協調学習に驚くほど有効であるマルチモーダルタスクのためのデコーダのみのモデルを提案する。
これらの多様な目的の合同学習は単純で効果的であり、これらのタスク間でのモデルの重量共有を最大化することを示した。
我々のモデルは,画像テキストとテキスト画像検索,ビデオ質問応答,オープン語彙検出タスクにおける技術の現状を達成し,より大きく,より広範囲に訓練された基礎モデルよりも優れている。
論文 参考訳(メタデータ) (2023-03-29T16:42:30Z) - Object Relational Graph with Teacher-Recommended Learning for Video
Captioning [92.48299156867664]
本稿では,新しいモデルと効果的なトレーニング戦略の両方を含む完全なビデオキャプションシステムを提案する。
具体的には,オブジェクトリレーショナルグラフ(ORG)に基づくエンコーダを提案する。
一方,教師推薦学習(TRL)手法を設計し,成功した外部言語モデル(ELM)をフル活用し,豊富な言語知識をキャプションモデルに統合する。
論文 参考訳(メタデータ) (2020-02-26T15:34:52Z) - Interactive Summarizing -- Automatic Slide Localization Technology as
Generative Learning Tool [10.81386784858998]
映像要約は,ビデオ講義における学習者の要約体験を高めるために有効な技術である。
対話型要約モデルは,畳み込みニューラルネットワークが支援するビデオ講義学習プロセスにおいて,学習者がどのように関与しているかを説明するように設計されている。
論文 参考訳(メタデータ) (2020-02-25T22:22:49Z) - Knowledge Integration Networks for Action Recognition [58.548331848942865]
我々は,アクション認識のためのメインブランチと,人間のパースとシーン認識のための2つの補助ブランチからなる3分岐アーキテクチャを設計する。
補助知識を中程度の畳み込み特徴に符号化するクロスブランチ統合(CBI)モジュールと、高レベルの文脈情報を効果的に融合するアクション知識グラフ(AKG)を含む2段階の知識符号化機構を提案する。
KINetは、大規模アクション認識ベンチマークKinetics-400の最先端性能を77.8%で達成している。
論文 参考訳(メタデータ) (2020-02-18T10:20:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。