論文の概要: The audiovisual resource as a pedagogical tools in times of covid 19. An
empirical analysis of its efficiency
- arxiv url: http://arxiv.org/abs/2101.04569v1
- Date: Mon, 11 Jan 2021 01:14:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-17 02:35:10.633822
- Title: The audiovisual resource as a pedagogical tools in times of covid 19. An
empirical analysis of its efficiency
- Title(参考訳): 教育用道具としての聴覚資源は,19。
実効性に関する実証分析
- Authors: Juan Rodriguez Basignana, Carolina Asuaga
- Abstract要約: 本研究の目的は、ルグアイ大学経済科学・行政学部(CPA)のキャリアに使用される聴覚資源の効率性を分析することである。
13の動画が分析され、16,340のビューがあり、少なくとも1,486人の視聴者から来ている。
その結果,ショートビデオでは視聴時間の効率が向上することがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The global pandemic caused by the COVID virus led universities to a change in
the way they teach classes, moving to a distance mode. The subject "Modelos y
Sistemas de Costos " of the CPA career of the Faculty of Economic Sciences and
Administration of the Universidad de la Rep\'ublica (Uruguay) incorporated
audiovisual material as a pedagogical resource consisting of videos recorded by
a group of well experienced and highest ranked teachers. The objective of this
research is to analyze the efficiency of the audiovisual resources used in the
course, seeking to answer whether the visualizations of said materials follow
certain patterns of behavior. 13 videos were analyzed, which had 16,340 views,
coming from at least 1,486 viewers. It was obtained that the visualizations
depend on the proximity to the test dates and that although the visualization
time has a curve that accompanies the duration of the videos, it is limited and
the average number of visualizations is 10 minutes and 4 seconds. It is also
concluded that the efficiency in viewing time increases in short videos.
- Abstract(参考訳): 新型コロナウイルス(COVID-19)による世界的なパンデミックにより、大学は授業の教え方を変え、距離モードに移行した。
経済学部の cpa 職歴の "modelos y sistemas de costos" という主題は、経験豊富な高位の教師のグループによって記録されたビデオからなる教育的資源としてオーディオビジュアル素材を取り入れている。
本研究の目的は,教材の可視化が特定の行動パターンに従うかどうかを問うために,授業で使用される聴覚資源の効率を分析することである。
13のビデオが分析され、16,340のビューがあり、少なくとも1,486の視聴者から得られた。
その結果, 可視化時間はテスト日時との距離に依存し, 映像の持続時間に付随する曲線を持つものの, 平均可視化回数は10分4秒であることがわかった。
また,短い映像では視聴時間の効率が向上することが示唆された。
関連論文リスト
- FastPerson: Enhancing Video Learning through Effective Video Summarization that Preserves Linguistic and Visual Contexts [23.6178079869457]
本稿では,講義ビデオにおける視覚情報と聴覚情報の両方を考慮した映像要約手法であるFastPersonを提案する。
FastPersonは、音声の書き起こしと画面上の画像とテキストを利用して要約ビデオを作成する。
従来のビデオ再生方式と同じレベルの理解度で視聴時間を53%短縮する。
論文 参考訳(メタデータ) (2024-03-26T14:16:56Z) - Audiovisual Moments in Time: A Large-Scale Annotated Dataset of
Audiovisual Actions [1.1510009152620668]
本稿では,視覚行動イベントの大規模データセットであるAVMIT(Audiovisual Moments in Time)を紹介する。
データセットには57,177本のオーディオヴィジュアルビデオのアノテーションが含まれており、それぞれが訓練を受けた11人のうち3人によって独立して評価されている。
論文 参考訳(メタデータ) (2023-08-18T17:13:45Z) - Audio-Visual Contrastive Learning with Temporal Self-Supervision [84.11385346896412]
人間の監督なしにRGBフレームと付随するオーディオの両方の表現を学習するビデオのための自己教師付き学習手法を提案する。
ビデオに固有の時間的・聴覚的次元を活用するために,本手法は時間的自己監督を音声視覚設定に拡張する。
論文 参考訳(メタデータ) (2023-02-15T15:00:55Z) - Unsupervised Audio-Visual Lecture Segmentation [31.29084124332193]
AVLecturesは,STEMを対象とする2,350以上の講義を対象とする86のコースからなるデータセットである。
第2のコントリビューションは,ビデオ講義セグメンテーションの導入である。
我々はこれらの表現を用いて時間的に一貫した1-アネレスト隣のアルゴリズムTW-FINCHを用いてセグメントを生成する。
論文 参考訳(メタデータ) (2022-10-29T16:26:34Z) - The Impact of Spatiotemporal Augmentations on Self-Supervised
Audiovisual Representation Learning [2.28438857884398]
ラベルなしビデオから音声視覚表現を学習するための対照的な枠組みを提案する。
ビデオの時間的コヒーレンシーを損なわない損失時間変換が最も効果的であることがわかった。
サンプリングベース時間拡張のみで事前訓練された自己教師モデルと比較して、時間拡張で事前訓練された自己教師モデルは、データセットAVE上での線形性能が約6.5%向上する。
論文 参考訳(メタデータ) (2021-10-13T23:48:58Z) - APES: Audiovisual Person Search in Untrimmed Video [87.4124877066541]
音声人物探索データセット(APES)について述べる。
APESには36時間のビデオにラベル付けされた1,9K以上のIDが含まれている。
APESの重要な特徴は、顔と同一アイデンティティの音声セグメントをリンクする密集した時間アノテーションを含むことである。
論文 参考訳(メタデータ) (2021-06-03T08:16:42Z) - AudioVisual Video Summarization [103.47766795086206]
ビデオ要約では、既存のアプローチは音声情報を無視しながら視覚情報を利用するだけだ。
本稿では,映像要約作業における音声情報と視覚情報を協調的に活用し,これを実現するためにAVRN(AudioVisual Recurrent Network)を開発することを提案する。
論文 参考訳(メタデータ) (2021-05-17T08:36:10Z) - Audiovisual Highlight Detection in Videos [78.26206014711552]
本研究は,タスク上の単一特徴の有効性研究と,一つの特徴を一度に残すアブレーション研究の2つの実験の結果である。
映像要約作業では,視覚的特徴がほとんどの情報を持ち,視覚的特徴を含む視覚的特徴が視覚のみの情報よりも向上することが示唆された。
その結果,映像要約タスクからハイライト検出タスクに特化して訓練されたモデルに知識を伝達できることが示唆された。
論文 参考訳(メタデータ) (2021-02-11T02:24:00Z) - Themes Informed Audio-visual Correspondence Learning [37.33758032988154]
SnapchatやYoutubeのような短期ユーザー生成ビデオ(UGV)は最近ブームとなり、多くの機械学習タスクが生まれている。
中でも、ビデオから音声と視覚情報の対応を学習することは難しい。
従来の音声-視覚対応学習(AVC)では、制約付きビデオや単純な設定しか研究されておらず、UGVの応用には適していない可能性がある。
論文 参考訳(メタデータ) (2020-09-14T17:03:04Z) - Curriculum Audiovisual Learning [113.20920928789867]
本稿では,ソフトクラスタリングモジュールを音響・視覚コンテンツ検出装置として導入するフレキシブル・オーディオビジュアル・モデルを提案する。
音声視覚学習の難しさを軽減するため,簡単なシーンから複雑なシーンまでモデルを訓練する新しい学習戦略を提案する。
本手法は,外的視覚的監督に言及することなく,音の分離において同等の性能を示す。
論文 参考訳(メタデータ) (2020-01-26T07:08:47Z) - Visually Guided Self Supervised Learning of Speech Representations [62.23736312957182]
音声視覚音声の文脈における視覚的モダリティによって導かれる音声表現を学習するためのフレームワークを提案する。
音声クリップに対応する静止画像をアニメーション化し、音声セグメントの実際の映像にできるだけ近いよう、生成した映像を最適化する。
我々は,感情認識のための技術成果と,音声認識のための競争結果を達成する。
論文 参考訳(メタデータ) (2020-01-13T14:53:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。