論文の概要: Attention Based Video Summaries of Live Online Zoom Classes
- arxiv url: http://arxiv.org/abs/2101.06328v1
- Date: Fri, 15 Jan 2021 23:28:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-28 11:40:30.650441
- Title: Attention Based Video Summaries of Live Online Zoom Classes
- Title(参考訳): 注意に基づくライブオンラインズーム授業のビデオ要約
- Authors: Hyowon Lee, Mingming Liu, Hamza Riaz, Navaneethan Rajasekaren, Michael
Scriney, Alan F. Smeaton
- Abstract要約: 本稿では,大学生がオンライン講義,チュートリアル,実験室,その他のライブセッションからより多くの情報を得るためのシステムについて述べる。
私たちは、ライブZoomセッション中にラップトップ上の注意レベルをログし、それらのライブセッションのパーソナライズされたビデオ要約を提供する。
顔の注意分析ソフトウェアを使用して、学生の注意が一定の閾値以下にある部分だけからなるパーソナライズされたビデオ要約を作成する。
- 参考スコア(独自算出の注目度): 7.753233602510337
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes a system developed to help University students get more
from their online lectures, tutorials, laboratory and other live sessions. We
do this by logging their attention levels on their laptops during live Zoom
sessions and providing them with personalised video summaries of those live
sessions. Using facial attention analysis software we create personalised video
summaries composed of just the parts where a student's attention was below some
threshold. We can also factor in other criteria into video summary generation
such as parts where the student was not paying attention while others in the
class were, and parts of the video that other students have replayed
extensively which a given student has not. Attention and usage based video
summaries of live classes are a form of personalised content, they are
educational video segments recommended to highlight important parts of live
sessions, useful in both topic understanding and in exam preparation. The
system also allows a Professor to review the aggregated attention levels of
those in a class who attended a live session and logged their attention levels.
This allows her to see which parts of the live activity students were paying
most, and least, attention to. The Help-Me-Watch system is deployed and in use
at our University in a way that protects student's personal data, operating in
a GDPR-compliant way.
- Abstract(参考訳): 本稿では,大学生がオンライン講義,チュートリアル,実験室,その他のライブセッションからより多くの情報を得るためのシステムについて述べる。
私たちは、ライブZoomセッション中にラップトップ上の注意レベルをログし、それらのライブセッションのパーソナライズされたビデオ要約を提供する。
顔の注意分析ソフトウェアを用いて、学生の注意が一定の閾値以下である部分のみからなる個人化されたビデオ要約を作成する。
また, 生徒が注意を払わない部分や, 生徒が意識していない部分, 留学生が広く再生した映像の一部など, 映像要約生成に他の基準を組み込むこともできる。
注意と利用に基づくライブクラスのビデオ要約は、パーソナライズされたコンテンツの一形態であり、ライブセッションの重要な部分を強調するために推奨される教育ビデオセグメントであり、トピック理解と試験準備の両方に有用である。
このシステムにより、教授は、ライブセッションに出席し、注意レベルをログしたクラスの参加者の集中した注意レベルをレビューできる。
これにより、ライブ活動の学生のどの部分が、少なくとも最も注意を払っているかを知ることができる。
Help-Me-Watchシステムは、GDPRに準拠した方法で、学生の個人情報を保護する方法で、私たちの大学にデプロイおよび使用されています。
関連論文リスト
- FastPerson: Enhancing Video Learning through Effective Video Summarization that Preserves Linguistic and Visual Contexts [23.6178079869457]
本稿では,講義ビデオにおける視覚情報と聴覚情報の両方を考慮した映像要約手法であるFastPersonを提案する。
FastPersonは、音声の書き起こしと画面上の画像とテキストを利用して要約ビデオを作成する。
従来のビデオ再生方式と同じレベルの理解度で視聴時間を53%短縮する。
論文 参考訳(メタデータ) (2024-03-26T14:16:56Z) - Just a Glimpse: Rethinking Temporal Information for Video Continual
Learning [58.7097258722291]
個別フレームと単一フレームに基づく効果的なビデオ連続学習のための新しい再生機構を提案する。
極端な記憶の制約の下では、ビデオの多様性は時間的情報よりも重要な役割を果たす。
提案手法は最先端性能を実現し,従来の最先端性能を最大21.49%向上させる。
論文 参考訳(メタデータ) (2023-05-28T19:14:25Z) - A Video Is Worth 4096 Tokens: Verbalize Videos To Understand Them In
Zero Shot [67.00455874279383]
そこで本研究では,自然言語による記述を生成するために長編動画を音声化し,生成したストーリーの映像理解タスクを実行することを提案する。
提案手法は,ゼロショットであるにもかかわらず,ビデオ理解のための教師付きベースラインよりもはるかに優れた結果が得られる。
ストーリー理解ベンチマークの欠如を緩和するため,我々は,説得戦略の識別に関する計算社会科学における重要な課題に関する最初のデータセットを公開している。
論文 参考訳(メタデータ) (2023-05-16T19:13:11Z) - What You Say Is What You Show: Visual Narration Detection in
Instructional Videos [108.77600799637172]
本稿では,映像中の行動によってナレーションが視覚的に表現されるか否かを判断する,視覚的ナレーション検出の新たな課題を紹介する。
We propose What You Say is What You Show (WYS2), a method with multi-modal cues and pseudo-labeling to learn to detect visual narrations with only weakly labeled data。
本モデルでは,映像中の視覚的ナレーションの検出に成功し,高いベースラインを達成し,映像の最先端の要約や時間的アライメントに対する影響を実証する。
論文 参考訳(メタデータ) (2023-01-05T21:43:19Z) - Unsupervised Audio-Visual Lecture Segmentation [31.29084124332193]
AVLecturesは,STEMを対象とする2,350以上の講義を対象とする86のコースからなるデータセットである。
第2のコントリビューションは,ビデオ講義セグメンテーションの導入である。
我々はこれらの表現を用いて時間的に一貫した1-アネレスト隣のアルゴリズムTW-FINCHを用いてセグメントを生成する。
論文 参考訳(メタデータ) (2022-10-29T16:26:34Z) - Video-Guided Curriculum Learning for Spoken Video Grounding [65.49979202728167]
音声言語記述から所望のビデオ断片をローカライズすることを目的とした,新たなタスクである音声ビデオグラウンドティング(SVG)を導入する。
識別音素の修正と雑音の多い音声から映像関連情報を抽出するために,新しいビデオ指導カリキュラム学習(VGCL)を開発した。
さらに,ActivityNetをベースとした,最初の大規模音声グラウンドデータセットを収集する。
論文 参考訳(メタデータ) (2022-09-01T07:47:01Z) - Real-time Attention Span Tracking in Online Education [0.0]
本稿では,オンライン授業中の学生のリアルタイムの注意レベルを監視するために,カメラフィードとマイクロホン入力を利用するメカニズムを提案する。
我々は,5つの異なる非言語的特徴を用いて,コンピュータによるタスク中の学生の注意スコアを計算し,学生と組織の両方に対してリアルタイムのフィードバックを生成するシステムを提案する。
論文 参考訳(メタデータ) (2021-11-29T17:05:59Z) - Audiovisual Highlight Detection in Videos [78.26206014711552]
本研究は,タスク上の単一特徴の有効性研究と,一つの特徴を一度に残すアブレーション研究の2つの実験の結果である。
映像要約作業では,視覚的特徴がほとんどの情報を持ち,視覚的特徴を含む視覚的特徴が視覚のみの情報よりも向上することが示唆された。
その結果,映像要約タスクからハイライト検出タスクに特化して訓練されたモデルに知識を伝達できることが示唆された。
論文 参考訳(メタデータ) (2021-02-11T02:24:00Z) - The VIP Gallery for Video Processing Education [51.722183438644905]
このデモンストレーションギャラリーは、テキサス大学オースティン校の大学院クラスのデジタルビデオ''で効果的に使用されています。
現実世界のコンテンツにおけるDVPの例と、多数の重要なDVPトピックを整理するユーザフレンドリーなインターフェースを提供する。
これらのツールの教育的価値をよりよく理解するために,質問紙調査と質問紙調査を行った。
論文 参考訳(メタデータ) (2020-12-29T06:40:41Z) - Classification of Important Segments in Educational Videos using
Multimodal Features [10.175871202841346]
本稿では,最先端の音声・視覚・テキスト機能を利用したマルチモーダルニューラルアーキテクチャを提案する。
本実験では,視覚的・時間的情報の影響と,重大予測に対するマルチモーダル特徴の組み合わせについて検討した。
論文 参考訳(メタデータ) (2020-10-26T14:40:23Z) - A Clustering-Based Method for Automatic Educational Video Recommendation
Using Deep Face-Features of Lecturers [0.0]
本稿では,教師の顔深度を識別することなく,教師の顔深度を利用して教育用ビデオレコメンデーションを生成する手法を提案する。
我々は教師なしの顔クラスタリング機構を用いて、講師の存在に基づいてビデオ間の関係を創出する。
参考講師の出席時間に基づいて,これらの推薦動画をランク付けする。
論文 参考訳(メタデータ) (2020-10-09T16:53:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。