論文の概要: CogGen: A Learner-Centered Generative AI Architecture for Intelligent Tutoring with Programming Video
- arxiv url: http://arxiv.org/abs/2506.20600v1
- Date: Wed, 25 Jun 2025 16:39:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.858664
- Title: CogGen: A Learner-Centered Generative AI Architecture for Intelligent Tutoring with Programming Video
- Title(参考訳): CogGen: プログラミングビデオによるインテリジェントチューニングのための学習中心のジェネレーティブAIアーキテクチャ
- Authors: Wengxi Li, Roy Pea, Nick Haber, Hari Subramonyam,
- Abstract要約: CogGenは学習者中心のAIアーキテクチャで、プログラミングビデオを対話的で適応的な学習体験に変換する。
この研究は、対話型AI会話で構造化された学生モデリングをブリッジすることで、AIによる学習を前進させる。
- 参考スコア(独自算出の注目度): 1.6961276655027102
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce CogGen, a learner-centered AI architecture that transforms programming videos into interactive, adaptive learning experiences by integrating student modeling with generative AI tutoring based on the Cognitive Apprenticeship framework. The architecture consists of three components: (1) video segmentation by learning goals, (2) a conversational tutoring engine applying Cognitive Apprenticeship strategies, and (3) a student model using Bayesian Knowledge Tracing to adapt instruction. Our technical evaluation demonstrates effective video segmentation accuracy and strong pedagogical alignment across knowledge, method, action, and interaction layers. Ablation studies confirm the necessity of each component in generating effective guidance. This work advances AI-powered tutoring by bridging structured student modeling with interactive AI conversations, offering a scalable approach to enhancing video-based programming education.
- Abstract(参考訳): 我々は,プログラミング映像をインタラクティブな適応学習体験に変換する,学習中心のAIアーキテクチャであるCogGenを紹介した。
本アーキテクチャは,(1)学習目標によるビデオセグメンテーション,(2)認知的適応戦略を適用した会話型学習エンジン,(3)ベイズ知識学習を用いた学生モデルからなる。
我々の技術評価は,知識層,手法層,行動層,相互作用層をまたいだ効果的な映像分割精度と強力な教育的アライメントを示すものである。
アブレーション研究は、効果的なガイダンスを生成する上で、各コンポーネントの必要性を裏付けるものである。
この研究は、インタラクティブなAI会話で構造化された学生モデリングをブリッジすることで、ビデオベースのプログラミング教育を強化するスケーラブルなアプローチを提供する。
関連論文リスト
- PedaCo-Gen: Scaffolding Pedagogical Agency in Human-AI Collaborative Video Authoring [28.634225905526677]
本研究では,マイアーのマルチメディア学習認知理論(CTML)に基づく指導ビデオのオーサリングのための協調的ビデオ生成システムPedaCo-Genを紹介する。
従来の"ワンショット"世代から離れ、PedaCo-Genは中間表現フェーズを導入し、AIレビュアーを使って、ビデオブループリントを構成するスクリプトとビジュアル記述をインタラクティブにレビューし、洗練することができる。
23名の教育専門家による研究では、PedaCo-Genは、ベースラインと比較して、様々なトピックやCTMLの原則でビデオ品質を著しく向上させることを示した。
論文 参考訳(メタデータ) (2026-02-23T09:12:13Z) - Open TutorAI: An Open-source Platform for Personalized and Immersive Learning with Generative AI [1.440818306216858]
本稿では,LLMと生成技術に基づくオープンソースの教育プラットフォームであるOpen TutorAIについて述べる。
このシステムは自然言語処理とカスタマイズ可能な3Dアバターを統合し、マルチモーダル学習者インタラクションを実現する。
コンテンツを整理し、組み込みのフィードバックを提供し、学習者、教育者、親のために専用のインターフェイスを提供するツールが含まれている。
論文 参考訳(メタデータ) (2026-02-06T20:24:33Z) - Dual Learning with Dynamic Knowledge Distillation and Soft Alignment for Partially Relevant Video Retrieval [53.54695034420311]
実際には、ビデオは通常、より複雑な背景コンテンツによって、長い時間で切り離される。
本稿では,大規模視覚言語事前学習モデルから一般化知識を抽出する新しい枠組みを提案する。
実験により,本モデルがTVR,ActivityNet,Charades-STAデータセット上での最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2025-10-14T08:38:20Z) - Code2Video: A Code-centric Paradigm for Educational Video Generation [60.03043132859077]
我々は,Pythonコードによる教育ビデオを生成するための,コード中心のエージェントフレームワークであるCode2Videoを提案する。
i)講義内容を時間的コヒーレントなフローに構造化するPlanner,(ii)構造化命令を実行可能なPythonコードに変換するCoder,そして(iii)視覚言語モデル(VLM)を視覚的アンカープロンプトで活用し,空間的レイアウトを洗練し,明確性を確保するCryticという3つの協調エージェントから構成される。
我々の結果は、Code2Videoが拡張性があり、解釈可能で、制御可能なアプローチである可能性を示し、直接コードよりも40%改善されている。
論文 参考訳(メタデータ) (2025-10-01T17:56:48Z) - Designing LMS and Instructional Strategies for Integrating Generative-Conversational AI [0.0]
本研究では,AIを活用した学習管理システムを構築するための構造化フレームワークを提案する。
生成AIと会話AIを統合し、適応的でインタラクティブで学習者中心の教育をサポートする。
論文 参考訳(メタデータ) (2025-08-31T06:01:50Z) - Toward Personalizing Quantum Computing Education: An Evolutionary LLM-Powered Approach [0.0]
本稿では,量子コンピューティング教育のためのインテリジェント・インストラクション・アシスタントについて紹介する。
このシステムは知識グラフ拡張アーキテクチャと2つの特殊言語モデル(LLM)エージェントを組み合わせる。
論文 参考訳(メタデータ) (2025-04-24T21:53:34Z) - VideoWorld: Exploring Knowledge Learning from Unlabeled Videos [119.35107657321902]
この研究は、深層生成モデルが視覚入力のみから複雑な知識を学習できるかどうかを考察する。
我々は、未ラベルのビデオデータに基づいて訓練された自動回帰ビデオ生成モデルであるVideoWorldを開発し、ビデオベースのGoとロボット制御タスクにおける知識獲得能力をテストする。
論文 参考訳(メタデータ) (2025-01-16T18:59:10Z) - Tutorly: Turning Programming Videos Into Apprenticeship Learning Environments with LLMs [1.6961276655027102]
我々の研究は、プログラミングビデオを認知的見習いのフレームワークを使って1対1の学習体験に変換する。
TutorlyはJupyterLabとして開発され、学習者はパーソナライズされた学習目標を設定することができる。
論文 参考訳(メタデータ) (2024-05-21T17:17:34Z) - How to Build an Adaptive AI Tutor for Any Course Using Knowledge Graph-Enhanced Retrieval-Augmented Generation (KG-RAG) [5.305156933641317]
知的学習システム(ITS)におけるLarge Language Models (LLMs)は、パーソナライズされた教育に変革をもたらす機会を提供する。
現在の実装では、2つの重要な課題に直面している。
本稿では,構造化知識表現と文脈認識検索を統合した新しいフレームワークである知識グラフ強化検索(RAG)を提案する。
論文 参考訳(メタデータ) (2023-11-29T15:02:46Z) - InstructVid2Vid: Controllable Video Editing with Natural Language Instructions [97.17047888215284]
InstructVid2Vidは、人間の言語命令でガイドされたビデオ編集のためのエンドツーエンドの拡散ベースの方法論である。
我々のアプローチは、自然言語ディレクティブによって案内される映像操作を強化し、サンプルごとの微調整や逆変換の必要性を排除します。
論文 参考訳(メタデータ) (2023-05-21T03:28:13Z) - Knowledge-enhanced Agents for Interactive Text Games [16.055119735473017]
テキストベースのゲームにおいてエージェントの機能的接地を改善するための知識注入フレームワークを提案する。
学習に基づくエージェントに注入するドメイン知識の2つの形態について考察する。
我々のフレームワークは、強化学習エージェントと言語モデルエージェントの2つの代表的なモデルクラスをサポートしている。
論文 参考訳(メタデータ) (2023-05-08T23:31:39Z) - MaMMUT: A Simple Architecture for Joint Learning for MultiModal Tasks [59.09343552273045]
本稿では,これらの異なる視覚言語タスクの協調学習に驚くほど有効であるマルチモーダルタスクのためのデコーダのみのモデルを提案する。
これらの多様な目的の合同学習は単純で効果的であり、これらのタスク間でのモデルの重量共有を最大化することを示した。
我々のモデルは,画像テキストとテキスト画像検索,ビデオ質問応答,オープン語彙検出タスクにおける技術の現状を達成し,より大きく,より広範囲に訓練された基礎モデルよりも優れている。
論文 参考訳(メタデータ) (2023-03-29T16:42:30Z) - Neuro-Symbolic Representations for Video Captioning: A Case for
Leveraging Inductive Biases for Vision and Language [148.0843278195794]
ビデオキャプションのためのマルチモーダルなニューラルシンボリック表現を学習するための新しいモデルアーキテクチャを提案する。
本手法では,ビデオ間の関係を学習する辞書学習手法と,そのペアによるテキスト記述を用いる。
論文 参考訳(メタデータ) (2020-11-18T20:21:19Z) - Object Relational Graph with Teacher-Recommended Learning for Video
Captioning [92.48299156867664]
本稿では,新しいモデルと効果的なトレーニング戦略の両方を含む完全なビデオキャプションシステムを提案する。
具体的には,オブジェクトリレーショナルグラフ(ORG)に基づくエンコーダを提案する。
一方,教師推薦学習(TRL)手法を設計し,成功した外部言語モデル(ELM)をフル活用し,豊富な言語知識をキャプションモデルに統合する。
論文 参考訳(メタデータ) (2020-02-26T15:34:52Z) - Interactive Summarizing -- Automatic Slide Localization Technology as
Generative Learning Tool [10.81386784858998]
映像要約は,ビデオ講義における学習者の要約体験を高めるために有効な技術である。
対話型要約モデルは,畳み込みニューラルネットワークが支援するビデオ講義学習プロセスにおいて,学習者がどのように関与しているかを説明するように設計されている。
論文 参考訳(メタデータ) (2020-02-25T22:22:49Z) - Knowledge Integration Networks for Action Recognition [58.548331848942865]
我々は,アクション認識のためのメインブランチと,人間のパースとシーン認識のための2つの補助ブランチからなる3分岐アーキテクチャを設計する。
補助知識を中程度の畳み込み特徴に符号化するクロスブランチ統合(CBI)モジュールと、高レベルの文脈情報を効果的に融合するアクション知識グラフ(AKG)を含む2段階の知識符号化機構を提案する。
KINetは、大規模アクション認識ベンチマークKinetics-400の最先端性能を77.8%で達成している。
論文 参考訳(メタデータ) (2020-02-18T10:20:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。