論文の概要: Singing Syllabi with Virtual Avatars: Enhancing Student Engagement Through AI-Generated Music and Digital Embodiment
- arxiv url: http://arxiv.org/abs/2508.11872v1
- Date: Sat, 16 Aug 2025 02:12:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.429466
- Title: Singing Syllabi with Virtual Avatars: Enhancing Student Engagement Through AI-Generated Music and Digital Embodiment
- Title(参考訳): 仮想アバターによる歌唱シラビ:AI生成音楽とデジタルエンゲージメントによる学生エンゲージメントの強化
- Authors: Xinxing Wu,
- Abstract要約: 実践的な授業では、従来のテキストベースの授業であるシラビで提供される情報を徹底的に読み書きし、完全に理解する学生はほとんどいなかった。
本稿では,AIが生成する歌声と仮想アバターを利用して,より視覚的に魅力的で魅力的で記憶に残る形式でシラビを提示する手法を提案する。
学生のフィードバックから,AIで歌ったシラビは重要なコース情報の認識とリコールを著しく改善した。
- 参考スコア(独自算出の注目度): 11.576048472951438
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In practical teaching, we observe that few students thoroughly read or fully comprehend the information provided in traditional, text-based course syllabi. As a result, essential details, such as course policies and learning outcomes, are frequently overlooked. To address this challenge, in this paper, we propose a novel approach leveraging AI-generated singing and virtual avatars to present syllabi in a format that is more visually appealing, engaging, and memorable. Especially, we leveraged the open-source tool, HeyGem, to transform textual syllabi into audiovisual presentations, in which digital avatars perform the syllabus content as songs. The proposed approach aims to stimulate students' curiosity, foster emotional connection, and enhance retention of critical course information. Student feedback indicated that AI-sung syllabi significantly improved awareness and recall of key course information.
- Abstract(参考訳): 実践的な授業では、従来のテキストベースの授業であるシラビで提供される情報を完全に読み書きし、完全に理解する学生はほとんどいない。
その結果、コースポリシーや学習結果といった重要な詳細は、しばしば見過ごされてしまう。
そこで本稿では,AI生成歌唱と仮想アバターを利用して,より視覚的に魅力的で,魅力的で,記憶に残る形式でシラビを提示する手法を提案する。
特に,オープンソースのツールであるHeyGemを利用して,テキスト・シラビをオーディオヴィジュアル・プレゼンテーションに変換し,デジタルアバターがシラバスのコンテンツを歌として演奏する。
提案手法は,学生の好奇心を刺激し,感情的なつながりを育み,重要なコース情報の保持を高めることを目的としている。
学生のフィードバックから,AIで歌ったシラビは重要なコース情報の認識とリコールを著しく改善した。
関連論文リスト
- AI for Accessible Education: Personalized Audio-Based Learning for Blind Students [2.9951933774126993]
本稿では,視覚障害者(BVI)学生を対象としたAIによる音声学習プラットフォームであるAudemyについて述べる。
Audemyは適応学習技術を使って、生徒の正確性、好みの調整、エンゲージメントパターンに基づいてコンテンツをカスタマイズする。
論文 参考訳(メタデータ) (2025-04-23T21:57:53Z) - Contrastive Decoupled Representation Learning and Regularization for Speech-Preserving Facial Expression Manipulation [58.189703277322224]
音声保存表情操作(SPFEM)は、特定の参照感情を表示するために話頭を変更することを目的としている。
参照およびソース入力に存在する感情とコンテンツ情報は、SPFEMモデルに対して直接的かつ正確な監視信号を提供することができる。
コントラスト学習による指導として、コンテンツと感情の事前学習を提案し、分離されたコンテンツと感情表現を学習する。
論文 参考訳(メタデータ) (2025-04-08T04:34:38Z) - Is the Lecture Engaging for Learning? Lecture Voice Sentiment Analysis for Knowledge Graph-Supported Intelligent Lecturing Assistant (ILA) System [0.060227699034124595]
本システムは,音声,コンテンツ,教育のリアルタイム分析を通じて,生徒の学習力を高めるためのインストラクターを支援するように設計されている。
講義音声感情分析のケーススタディとして,3000以上の1分間の講義音声クリップからなるトレーニングセットを開発した。
私たちの究極のゴールは、現代の人工知能技術を活用することで、インストラクターがより積極的に効果的に教えることを支援することです。
論文 参考訳(メタデータ) (2024-08-20T02:22:27Z) - Multimodal Classification of Teaching Activities from University Lecture
Recordings [0.9790236766474201]
本稿では,授業のいつでも実施されている活動の種類を特定するマルチモーダル分類アルゴリズムを提案する。
いくつかの学術活動は、音声信号とより容易に識別でき、テキストの書き起こしに頼って他者を特定する必要がある。
論文 参考訳(メタデータ) (2023-12-24T08:33:30Z) - Enhancing Textbooks with Visuals from the Web for Improved Learning [50.01434477801967]
本稿では,Webからの画像を用いた教科書を自動的に強化する視覚言語モデルの有効性について検討する。
数学、科学、社会科学、ビジネス分野における電子教科書のデータセットを収集します。
次に,テキスト画像マッチングタスクを設定し,テキスト画像の検索とテキストへの適切な割り当てを行う。
論文 参考訳(メタデータ) (2023-04-18T12:16:39Z) - Language-Guided Audio-Visual Source Separation via Trimodal Consistency [64.0580750128049]
この課題の鍵となる課題は、発音対象の言語的記述と、その視覚的特徴と、音声波形の対応する成分とを関連付けることである。
2つの新たな損失関数を通して擬似目標管理を行うために、既成の視覚言語基盤モデルを適用する。
3つの音声・視覚的分離データセットに対する自己教師型アプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-03-28T22:45:40Z) - What You Say Is What You Show: Visual Narration Detection in
Instructional Videos [108.77600799637172]
本稿では,映像中の行動によってナレーションが視覚的に表現されるか否かを判断する,視覚的ナレーション検出の新たな課題を紹介する。
We propose What You Say is What You Show (WYS2), a method with multi-modal cues and pseudo-labeling to learn to detect visual narrations with only weakly labeled data。
本モデルでは,映像中の視覚的ナレーションの検出に成功し,高いベースラインを達成し,映像の最先端の要約や時間的アライメントに対する影響を実証する。
論文 参考訳(メタデータ) (2023-01-05T21:43:19Z) - Video-Guided Curriculum Learning for Spoken Video Grounding [65.49979202728167]
音声言語記述から所望のビデオ断片をローカライズすることを目的とした,新たなタスクである音声ビデオグラウンドティング(SVG)を導入する。
識別音素の修正と雑音の多い音声から映像関連情報を抽出するために,新しいビデオ指導カリキュラム学習(VGCL)を開発した。
さらに,ActivityNetをベースとした,最初の大規模音声グラウンドデータセットを収集する。
論文 参考訳(メタデータ) (2022-09-01T07:47:01Z) - A literature survey on student feedback assessment tools and their usage
in sentiment analysis [0.0]
我々は,Kahoot!, Mentimeter, Padlet, pollingなどのクラス内フィードバック評価手法の有効性を評価する。
学生の質的なフィードバックコメントから明確な提案を抽出する感情分析モデルを提案する。
論文 参考訳(メタデータ) (2021-09-09T06:56:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。