論文の概要: PedaCo-Gen: Scaffolding Pedagogical Agency in Human-AI Collaborative Video Authoring
- arxiv url: http://arxiv.org/abs/2602.19623v1
- Date: Mon, 23 Feb 2026 09:12:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.745224
- Title: PedaCo-Gen: Scaffolding Pedagogical Agency in Human-AI Collaborative Video Authoring
- Title(参考訳): PedaCo-Gen:人間とAIのコラボレーションによるビデオオーサリングにおける教育機関の肩代わり
- Authors: Injun Baek, Yearim Kim, Nojun Kwak,
- Abstract要約: 本研究では,マイアーのマルチメディア学習認知理論(CTML)に基づく指導ビデオのオーサリングのための協調的ビデオ生成システムPedaCo-Genを紹介する。
従来の"ワンショット"世代から離れ、PedaCo-Genは中間表現フェーズを導入し、AIレビュアーを使って、ビデオブループリントを構成するスクリプトとビジュアル記述をインタラクティブにレビューし、洗練することができる。
23名の教育専門家による研究では、PedaCo-Genは、ベースラインと比較して、様々なトピックやCTMLの原則でビデオ品質を著しく向上させることを示した。
- 参考スコア(独自算出の注目度): 28.634225905526677
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While advancements in Text-to-Video (T2V) generative AI offer a promising path toward democratizing content creation, current models are often optimized for visual fidelity rather than instructional efficacy. This study introduces PedaCo-Gen, a pedagogically-informed human-AI collaborative video generating system for authoring instructional videos based on Mayer's Cognitive Theory of Multimedia Learning (CTML). Moving away from traditional "one-shot" generation, PedaCo-Gen introduces an Intermediate Representation (IR) phase, enabling educators to interactively review and refine video blueprints-comprising scripts and visual descriptions-with an AI reviewer. Our study with 23 education experts demonstrates that PedaCo-Gen significantly enhances video quality across various topics and CTML principles compared to baselines. Participants perceived the AI-driven guidance not merely as a set of instructions but as a metacognitive scaffold that augmented their instructional design expertise, reporting high production efficiency (M=4.26) and guide validity (M=4.04). These findings highlight the importance of reclaiming pedagogical agency through principled co-creation, providing a foundation for future AI authoring tools that harmonize generative power with human professional expertise.
- Abstract(参考訳): テキスト・トゥ・ビデオ(T2V)生成AIの進歩は、コンテンツの創造を民主化するための有望な道を提供する一方で、現在のモデルは、教育効果よりも視覚的忠実度に最適化されることが多い。
本研究では,マイアーのマルチメディア学習認知理論(CTML)に基づく指導ビデオのオーサリングのための,教育的にインフォームドされた人間-AI協調ビデオ生成システムであるPedaCo-Genを紹介する。
従来の"ワンショット"世代から離れ、PedaCo-GenはIntermediate Representation(IR)フェーズを導入し、AIレビュアーとともに、ビデオブループリントを構成するスクリプトとビジュアル記述をインタラクティブにレビューし、洗練することができる。
23名の教育専門家による研究では、PedaCo-Genは、ベースラインと比較して、様々なトピックやCTMLの原則でビデオ品質を著しく向上させることを示した。
参加者はAIによる指導を命令のセットとしてだけでなく、教育設計の専門性を増強し、高い生産効率(M=4.26)とガイドの有効性(M=4.04)を報告するメタ認知的な足場として捉えた。
これらの発見は、原則化された共同創造を通じて教育機関を再生することの重要性を強調し、人間の専門知識と創造力を調和させる将来のAIオーサリングツールの基礎を提供する。
関連論文リスト
- Skyra: AI-Generated Video Detection via Grounded Artifact Reasoning [66.51617619673587]
AI生成ビデオにおける人間の知覚可能な視覚的アーティファクトを識別する,特殊な大規模言語モデル(MLLM)であるSkyraを紹介する。
この目的を達成するために、我々は、人間のアノテーションを微粒化した最初の大規模AI生成ビデオデータセットである、Supervised Fine-Tuning (SFT)のためのViF-CoT-4Kを構築した。
次に,モデルの時間的知覚,説明能力,検出精度を体系的に向上する2段階のトレーニング戦略を開発する。
論文 参考訳(メタデータ) (2025-12-17T18:48:26Z) - Generative Teaching via Code [43.45801837806965]
TeachMasterは、解釈可能、編集可能、カリキュラム対応の教育ビデオの制作を自動化するための、計画、設計、レンダリングの協力的なチームである。
TeachMasterは構造的コヒーレンスや視覚的忠実さを損なうことなく生産効率を大幅に向上させる。
論文 参考訳(メタデータ) (2025-12-07T12:52:24Z) - Transforming Higher Education with AI-Powered Video Lectures [0.2538209532048866]
ビデオ講義制作における人工知能(AI)の統合は、高等教育を変革する可能性がある。
本稿では、スクリプト生成にGoogle Gemini、音声合成にAmazon Polly、ビデオアセンブリにMicrosoft PowerPointを組み合わせた半自動化ワークフローについて検討する。
論文 参考訳(メタデータ) (2025-10-30T23:33:10Z) - Beyond Automation: Socratic AI, Epistemic Agency, and the Implications of the Emergence of Orchestrated Multi-Agent Learning Architectures [0.0]
ジェネレーティブAIはもはや高等教育における周辺ツールではない。
本稿では,ソクラティックAIテュータの評価実験から得られた知見について述べる。
テューターを使用する学生は、批判的、独立的、反省的な思考に対する大きな支持を報告した。
論文 参考訳(メタデータ) (2025-08-07T07:49:03Z) - CogGen: A Learner-Centered Generative AI Architecture for Intelligent Tutoring with Programming Video [1.6961276655027102]
CogGenは学習者中心のAIアーキテクチャで、プログラミングビデオを対話的で適応的な学習体験に変換する。
この研究は、対話型AI会話で構造化された学生モデリングをブリッジすることで、AIによる学習を前進させる。
論文 参考訳(メタデータ) (2025-06-25T16:39:05Z) - How Can Video Generative AI Transform K-12 Education? Examining Teachers' Perspectives through TPACK and TAM [0.7785405821914395]
ビデオ生成AI(Video GenAI)は、動的でカスタマイズされた高品質なビジュアルコンテンツの作成を可能にすることで、K-12教育の新たな可能性を開いた。
本研究は,K-12の指導的教師が Video GenAI の教育的応用について,その視点について考察する。
論文 参考訳(メタデータ) (2025-03-11T03:08:07Z) - Reflection on Data Storytelling Tools in the Generative AI Era from the Human-AI Collaboration Perspective [54.152639172274]
大規模生成AI技術は、ビジュアルおよびナレーション生成におけるそのパワーでデータストーリーテリングを強化する可能性がある。
我々は、最新のツールのコラボレーションパターンを、データストーリーテリングにおける人間とAIのコラボレーションを理解するための専用のフレームワークを使用して、以前のツールのパターンと比較する。
これらのAIテクニックのメリットと、人間とAIのコラボレーションへの影響も明らかにされている。
論文 参考訳(メタデータ) (2025-03-04T13:56:18Z) - GRADEO: Towards Human-Like Evaluation for Text-to-Video Generation via Multi-Step Reasoning [62.775721264492994]
GRADEOは、最初に設計されたビデオ評価モデルの1つである。
説明可能なスコアと評価のためにAIが生成したビデオを、多段階の推論によって評価する。
実験の結果,本手法は既存手法よりも人的評価に適合していることがわかった。
論文 参考訳(メタデータ) (2025-03-04T07:04:55Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。