論文の概要: Transforming Higher Education with AI-Powered Video Lectures
- arxiv url: http://arxiv.org/abs/2511.20660v1
- Date: Thu, 30 Oct 2025 23:33:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-07 19:06:32.311159
- Title: Transforming Higher Education with AI-Powered Video Lectures
- Title(参考訳): AIによるビデオ講義による高等教育の変容
- Authors: Dengsheng Zhang,
- Abstract要約: ビデオ講義制作における人工知能(AI)の統合は、高等教育を変革する可能性がある。
本稿では、スクリプト生成にGoogle Gemini、音声合成にAmazon Polly、ビデオアセンブリにMicrosoft PowerPointを組み合わせた半自動化ワークフローについて検討する。
- 参考スコア(独自算出の注目度): 0.2538209532048866
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The integration of artificial intelligence (AI) into video lecture production has the potential to transform higher education by streamlining content creation and enhancing accessibility. This paper investigates a semi automated workflow that combines Google Gemini for script generation, Amazon Polly for voice synthesis, and Microsoft PowerPoint for video assembly. Unlike fully automated text to video platforms, this hybrid approach preserves pedagogical intent while ensuring script to slide synchronization, narrative coherence, and customization. Case studies demonstrate the effectiveness of Gemini in generating accurate and context-sensitive scripts for visually rich academic presentations, while Polly provides natural-sounding narration with controllable pacing. A two course pilot study was conducted to evaluate AI generated instructional videos (AIIV) against human instructional videos (HIV). Both qualitative and quantitative results indicate that AIIVs are comparable to HIVs in terms of learning outcomes, with students reporting high levels of clarity, coherence, and usability. However, limitations remain, particularly regarding audio quality and the absence of human-like avatars. The findings suggest that AI assisted video production can reduce instructor workload, improve scalability, and deliver effective learning resources, while future improvements in synthetic voices and avatars may further enhance learner engagement.
- Abstract(参考訳): 人工知能(AI)の映像講義制作への統合は、コンテンツ作成の合理化とアクセシビリティの向上によって高等教育を変革する可能性がある。
本稿では、スクリプト生成にGoogle Gemini、音声合成にAmazon Polly、ビデオアセンブリにMicrosoft PowerPointを組み合わせた半自動化ワークフローについて検討する。
ビデオプラットフォームへの完全自動化テキストとは異なり、このハイブリッドアプローチは、スクリプトが同期、物語の一貫性、カスタマイズを確実にしながら、教育的な意図を保っている。
ケーススタディは、視覚的に豊かな学術的プレゼンテーションのための正確で文脈に敏感なスクリプトを生成するのに、ジェミニの有効性を実証している。
人間の指導ビデオ(HIV)に対してAIIV(AIIV)を評価するための2コースのパイロット実験を行った。
質的および定量的な結果は、AIIVsが学習結果の点でHIVに匹敵し、学生は高いレベルの明瞭さ、一貫性、ユーザビリティを報告していることを示している。
しかし、音質や人間のようなアバターの欠如に関する制限は残されている。
この結果から,AIによるビデオ制作支援は,インストラクターの作業量を削減し,スケーラビリティを向上し,効果的な学習資源を提供するとともに,今後は合成音声やアバターの改良により学習者のエンゲージメントが向上する可能性が示唆された。
関連論文リスト
- CLAP: Contrastive Latent Action Pretraining for Learning Vision-Language-Action Models from Human Videos [73.51386721543135]
本稿では,映像から視覚的潜伏空間をロボット軌道から受容的潜伏空間に整列させるフレームワークであるContrastive Latent Action Pretraining (CLAP)を提案する。
CLAPは、ビデオの遷移を量子化され、物理的に実行可能なコードブックにマッピングする。
本稿では,命令追従やオブジェクトの一般化に優れた自己回帰モデルであるCLAP-NTPと,高頻度かつ高精度な操作のために設計されたRectified FlowベースのポリシーであるCLAP-RFの両方を提供する二重形式VLAフレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-07T16:26:33Z) - ALIVE: An Avatar-Lecture Interactive Video Engine with Content-Aware Retrieval for Real-Time Interaction [5.691710068675227]
ALIVEはAvatar-Lecture Interactive Video Engineで、受動的にリアルタイムで学習できる。
ALIVEは軽量な埋め込みモデル、FAISSベースの検索、プログレッシブプリロードによるセグメント化されたアバター合成を採用している。
本システムは,完全な医用画像処理コースにおいて,その検索精度,レイテンシ特性,ユーザエクスペリエンスを評価し,ALIVEが正確なコンテンツ認識とリアルタイムサポートを提供することを示す。
論文 参考訳(メタデータ) (2025-12-24T00:33:59Z) - Skyra: AI-Generated Video Detection via Grounded Artifact Reasoning [66.51617619673587]
AI生成ビデオにおける人間の知覚可能な視覚的アーティファクトを識別する,特殊な大規模言語モデル(MLLM)であるSkyraを紹介する。
この目的を達成するために、我々は、人間のアノテーションを微粒化した最初の大規模AI生成ビデオデータセットである、Supervised Fine-Tuning (SFT)のためのViF-CoT-4Kを構築した。
次に,モデルの時間的知覚,説明能力,検出精度を体系的に向上する2段階のトレーニング戦略を開発する。
論文 参考訳(メタデータ) (2025-12-17T18:48:26Z) - PVChat: Personalized Video Chat with One-Shot Learning [13.731097809455154]
PVChatは単発の学習フレームワークで、被験者ごとに単一のビデオから回答できる。
提案手法は、合成強化ビデオQAデータセット上で、Mixture-of-Heads(MoH)拡張ViLLMを最適化する。
医療シナリオ,テレビシリーズ,アニメ,実世界の映像を対象とした多様なデータセットを用いてPVChatを評価した。
論文 参考訳(メタデータ) (2025-03-21T11:50:06Z) - Adult learners recall and recognition performance and affective feedback when learning from an AI-generated synthetic video [1.7742433461734404]
この研究は500人の参加者を募集し、大人の学習者のリコールと認識のパフォーマンス、AI生成合成ビデオに対する感情的なフィードバックについて調査した。
その結果,リコールおよび認識性能の条件間で統計的に有意な差は認められなかった。
しかし、成人の学習者はテキストではなくビデオ形式から学ぶことを好んだ。
論文 参考訳(メタデータ) (2024-11-28T21:40:28Z) - MindSpeech: Continuous Imagined Speech Decoding using High-Density fNIRS and Prompt Tuning for Advanced Human-AI Interaction [0.0]
本稿では,脳とAIの直接インターフェースを開発することによって,人間とAIのインタラクションを実現する新しい手法を提案する。
我々はMindSpeechと呼ばれる新しいAIモデルについて論じる。
4名中3名に対してBLEU-1,BERT Pスコアなどの指標を有意に改善した。
論文 参考訳(メタデータ) (2024-07-25T16:39:21Z) - Video-Teller: Enhancing Cross-Modal Generation with Fusion and
Decoupling [79.49128866877922]
Video-Tellerは、マルチモーダル融合と微粒なモーダルアライメントを利用するビデオ言語基盤モデルである。
Video-Tellerは、凍結した事前訓練されたビジョンと言語モジュールを利用することで、トレーニング効率を高める。
大規模言語モデルの堅牢な言語機能を活用し、簡潔かつ精巧なビデオ記述の生成を可能にする。
論文 参考訳(メタデータ) (2023-10-08T03:35:27Z) - Generative AI for learning: Investigating the potential of synthetic
learning videos [0.6628807224384127]
そこで本研究では,AI生成合成ビデオを用いたオンライン教育環境における教育コンテンツ作成の有用性について検討する。
オンライン学習プラットフォームにおけるAI合成ビデオの利用が学習者のコンテンツ獲得と学習経験に与える影響について検討した。
論文 参考訳(メタデータ) (2023-04-07T12:57:42Z) - Multimodal Lecture Presentations Dataset: Understanding Multimodality in
Educational Slides [57.86931911522967]
学習内容のマルチモーダル理解における機械学習モデルの能力を検証する。
このデータセットには,180時間以上のビデオと9000時間以上のスライドが,各科目から10人の講師が参加している。
マルチモーダル・トランスフォーマーであるPolyViLTを導入する。
論文 参考訳(メタデータ) (2022-08-17T05:30:18Z) - Watch and Learn: Mapping Language and Noisy Real-world Videos with
Self-supervision [54.73758942064708]
我々は、明示的なアノテーションを使わずに、文章と騒々しいビデオスニペットのマッピングを学習することで、視覚と自然言語を理解するように機械に教える。
トレーニングと評価のために、多数のオンラインビデオとサブタイトルを含む新しいデータセットApartmenTourをコントリビュートする。
論文 参考訳(メタデータ) (2020-11-19T03:43:56Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。