論文の概要: The VIP Gallery for Video Processing Education
- arxiv url: http://arxiv.org/abs/2012.14625v1
- Date: Tue, 29 Dec 2020 06:40:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-19 04:57:52.763549
- Title: The VIP Gallery for Video Processing Education
- Title(参考訳): ビデオ処理教育のためのVIPギャラリー
- Authors: Todd Goodall and Alan C. Bovik
- Abstract要約: このデモンストレーションギャラリーは、テキサス大学オースティン校の大学院クラスのデジタルビデオ''で効果的に使用されています。
現実世界のコンテンツにおけるDVPの例と、多数の重要なDVPトピックを整理するユーザフレンドリーなインターフェースを提供する。
これらのツールの教育的価値をよりよく理解するために,質問紙調査と質問紙調査を行った。
- 参考スコア(独自算出の注目度): 51.722183438644905
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Digital video pervades daily life. Mobile video, digital TV, and digital
cinema are now ubiquitous, and as such, the field of Digital Video Processing
(DVP) has experienced tremendous growth. Digital video systems also permeate
scientific and engineering disciplines including but not limited to astronomy,
communications, surveillance, entertainment, video coding, computer vision, and
vision research. As a consequence, educational tools for DVP must cater to a
large and diverse base of students. Towards enhancing DVP education we have
created a carefully constructed gallery of educational tools that is designed
to complement a comprehensive corpus of online lectures by providing examples
of DVP on real-world content, along with a user-friendly interface that
organizes numerous key DVP topics ranging from analog video, to human visual
processing, to modern video codecs, etc. This demonstration gallery is
currently being used effectively in the graduate class ``Digital Video'' at the
University of Texas at Austin. Students receive enhanced access to concepts
through both learning theory from highly visual lectures and watching concrete
examples from the gallery, which captures the beauty of the underlying
principles of modern video processing. To better understand the educational
value of these tools, we conducted a pair of questionaire-based surveys to
assess student background, expectations, and outcomes. The survey results
support the teaching efficacy of this new didactic video toolset.
- Abstract(参考訳): デジタルビデオは日常生活に浸透する。
モバイルビデオ、デジタルテレビ、デジタルシネマは今や至るところで普及しており、デジタルビデオ処理(DVP)の分野は著しく成長している。
デジタルビデオシステムは、天文学、通信、監視、娯楽、ビデオコーディング、コンピュータビジョン、視覚研究など、科学や工学の分野にも浸透している。
結果として、DVPの教育ツールは、大規模で多様な学生の基盤を養わなければならない。
dvp教育の強化に向けて,実世界のコンテンツに対するdvpの例を提供し,オンライン講義の包括的コーパスを補完する教育ツールの集大成を作成し,アナログビデオ,人間の視覚処理,現代のビデオコーデックなど,多数の主要なdvpトピックを整理するユーザフレンドリなインターフェースを開発した。
このデモギャラリーは現在、テキサス大学オースティン校の大学院「‘デジタルビデオ’」で効果的に使われている。
学生は、高度に視覚的な講義から学習理論と、現代ビデオ処理の基本原理の美しさを捉えたギャラリーから具体的な例を見ることによって、概念へのアクセスを強化している。
これらのツールの教育的価値をよりよく理解するために,学生の背景,期待,成果を評価するための質問紙調査を行った。
調査結果は,この新しいディダクティック・ビデオ・ツールセットの教育効果を支持する。
関連論文リスト
- EasyVolcap: Accelerating Neural Volumetric Video Research [69.59671164891725]
ボリュームビデオは、芸術的パフォーマンス、スポーツイベント、リモート会話などの動的イベントをデジタル的に記録する技術である。
EasyVolcapはPythonとPytorchのライブラリで、マルチビューデータ処理、4Dシーン再構成、効率的なダイナミックボリュームビデオレンダリングのプロセスを統一する。
論文 参考訳(メタデータ) (2023-12-11T17:59:46Z) - InternVid: A Large-scale Video-Text Dataset for Multimodal Understanding
and Generation [90.71796406228265]
InternVidは大規模なビデオ中心のマルチモーダルデータセットで、強力で転送可能なビデオテキスト表現の学習を可能にする。
InternVidデータセットは700万本以上のビデオが760万時間近く持続し、合計4.1Bワードの詳細な記述を伴う234万本のビデオクリップが生成される。
論文 参考訳(メタデータ) (2023-07-13T17:58:32Z) - InternVideo: General Video Foundation Models via Generative and
Discriminative Learning [52.69422763715118]
動的および複雑なビデオレベルの理解タスクのための一般的なビデオ基盤モデルであるInternVideoを提案する。
InternVideoは、事前学習対象として、マスク付きビデオモデリングとビデオ言語コントラスト学習を効率的に探索する。
InternVideoは、ビデオアクション認識/検出、ビデオ言語アライメント、オープンワールドビデオアプリケーションなど、39のビデオデータセットの最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-12-06T18:09:49Z) - A Survey on Deep Learning Technique for Video Segmentation [147.0767454918527]
ビデオセグメンテーションは幅広い応用において重要な役割を果たしている。
ディープラーニングベースのアプローチは、ビデオセグメンテーションに特化しており、魅力的なパフォーマンスを提供している。
論文 参考訳(メタデータ) (2021-07-02T15:51:07Z) - Broaden Your Views for Self-Supervised Video Learning [97.52216510672251]
ビデオのための自己教師型学習フレームワークBraVeを紹介する。
BraVeでは、ビューの1つがビデオの狭い一時的なウィンドウにアクセスでき、もう1つのビューはビデオコンテンツに広くアクセスできます。
BraVeが標準ビデオおよびオーディオ分類ベンチマークで自己監督表現学習の最先端の結果を達成することを実証します。
論文 参考訳(メタデータ) (2021-03-30T17:58:46Z) - VLEngagement: A Dataset of Scientific Video Lectures for Evaluating
Population-based Engagement [23.078055803229912]
ビデオ講義は、現在のデジタル時代の大衆に知識を与える主要なモダリティの1つとなっている。
科学ビデオ講義における学習者の関与を理解することを目的としたデータと研究は依然として重要なニーズである。
本稿では,VLEngagementについて紹介する。VLEngagementは,公開科学ビデオ講義から抽出したコンテンツベースおよびビデオ特有の特徴からなる,新しいデータセットである。
論文 参考訳(メタデータ) (2020-11-02T14:20:19Z) - Classification of Important Segments in Educational Videos using
Multimodal Features [10.175871202841346]
本稿では,最先端の音声・視覚・テキスト機能を利用したマルチモーダルニューラルアーキテクチャを提案する。
本実験では,視覚的・時間的情報の影響と,重大予測に対するマルチモーダル特徴の組み合わせについて検討した。
論文 参考訳(メタデータ) (2020-10-26T14:40:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。