論文の概要: Interactive Summarizing -- Automatic Slide Localization Technology as
Generative Learning Tool
- arxiv url: http://arxiv.org/abs/2002.11203v1
- Date: Tue, 25 Feb 2020 22:22:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 23:46:46.371600
- Title: Interactive Summarizing -- Automatic Slide Localization Technology as
Generative Learning Tool
- Title(参考訳): interactive summarizing -- 生成学習ツールとしてのスライドの自動ローカライズ技術
- Authors: Lili Yan and Kai Li
- Abstract要約: 映像要約は,ビデオ講義における学習者の要約体験を高めるために有効な技術である。
対話型要約モデルは,畳み込みニューラルネットワークが支援するビデオ講義学習プロセスにおいて,学習者がどのように関与しているかを説明するように設計されている。
- 参考スコア(独自算出の注目度): 10.81386784858998
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Making a summary is a common learning strategy in lecture learning. It is an
effective way for learners to engage in both traditional and video lectures.
Video summarization is an effective technology applied to enhance learners'
summarizing experience in a video lecture. In this article, we propose to apply
cutting-edge automatic slide localization technology to lecture video learning
experience. An interactive summarizing model is designed to explain how
learners are engaged in the video lecture learning process supported by
convolutional neural network and the possibility of related learning analytics.
- Abstract(参考訳): 要約は講義学習における一般的な学習戦略である。
これは、学習者が伝統的な講義とビデオ講義の両方に携わる効果的な方法である。
映像要約は,ビデオ講義における学習者の要約体験を高めるために有効な技術である。
本稿では,講義ビデオ学習に最先端の自動スライド定位技術を適用することを提案する。
対話型要約モデルは,畳み込みニューラルネットワークが支援するビデオ講義学習プロセスと,関連する学習分析の可能性を説明するために設計された。
関連論文リスト
- Learning by Watching: A Review of Video-based Learning Approaches for
Robot Manipulation [0.0]
最近の研究は、オンラインで公開されている豊富な動画を受動的に視聴することで、学習操作のスキルを探求している。
本調査では,映像特徴表現学習技術,物価理解,3次元ハンド・ボディ・モデリング,大規模ロボット資源などの基礎を概観する。
ロボット操作の一般化とサンプル効率を高めるために,大規模な人的映像を観察することのみから学習する方法を論じる。
論文 参考訳(メタデータ) (2024-02-11T08:41:42Z) - Learning Multi-modal Representations by Watching Hundreds of Surgical
Video Lectures [54.376834698110684]
本研究では,オープンな外科的eラーニングプラットフォームを通じて利用可能な手術ビデオ講義が,効果的な監視信号を提供することができるという考えを提起した。
我々は複数の補完的な自動音声認識システムを用いてテキストの書き起こしを生成する。
次に、多モーダル表現学習のための新しい方法、Surg - Surgery Vision Language Pre-trainingを提案する。
論文 参考訳(メタデータ) (2023-07-27T22:38:12Z) - Learning with Limited Samples -- Meta-Learning and Applications to
Communication Systems [46.760568562468606]
メタ学習は、新しいタスクに迅速に適応できる学習アルゴリズムを最適化する。
このレビュー・モノグラフは、原則、アルゴリズム、理論、工学的応用をカバーし、メタラーニングの紹介を提供する。
論文 参考訳(メタデータ) (2022-10-03T17:15:36Z) - Multimodal Lecture Presentations Dataset: Understanding Multimodality in
Educational Slides [57.86931911522967]
学習内容のマルチモーダル理解における機械学習モデルの能力を検証する。
このデータセットには,180時間以上のビデオと9000時間以上のスライドが,各科目から10人の講師が参加している。
マルチモーダル・トランスフォーマーであるPolyViLTを導入する。
論文 参考訳(メタデータ) (2022-08-17T05:30:18Z) - Video-Text Pre-training with Learned Regions [59.30893505895156]
Video-Textプレトレーニングは、大規模なビデオテキストペアから転送可能な表現を学ぶことを目的としている。
本研究では,大規模ビデオテキストペアの事前学習において,対象物の構造を考慮に入れたビデオテキスト学習用モジュール「RereaLearner」を提案する。
論文 参考訳(メタデータ) (2021-12-02T13:06:53Z) - Video Summarization Using Deep Neural Networks: A Survey [72.98424352264904]
ビデオ要約技術は、ビデオコンテンツの最も有益な部分を選択して、簡潔で完全なシノプシスを作成することを目指しています。
本研究は,この領域における最近の進歩に着目し,既存の深層学習に基づく総括的映像要約手法の包括的調査を行う。
論文 参考訳(メタデータ) (2021-01-15T11:41:29Z) - Learning Grammar of Complex Activities via Deep Neural Networks [0.0]
本報告はラベル制約下でビデオ学習のためのディープニューラルネットワークに関する理論的洞察を提供する。
コンピュータビジョンのためのビデオ学習のこれまでの仕事の上に構築し、モデルパフォーマンスの観察を行い、観察を改善するためのさらなるメカニズムを提案します。
論文 参考訳(メタデータ) (2021-01-07T21:48:58Z) - Neuro-Symbolic Representations for Video Captioning: A Case for
Leveraging Inductive Biases for Vision and Language [148.0843278195794]
ビデオキャプションのためのマルチモーダルなニューラルシンボリック表現を学習するための新しいモデルアーキテクチャを提案する。
本手法では,ビデオ間の関係を学習する辞書学習手法と,そのペアによるテキスト記述を用いる。
論文 参考訳(メタデータ) (2020-11-18T20:21:19Z) - Learning Video Representations from Textual Web Supervision [97.78883761035557]
本稿では,映像表現の学習方法としてテキストを用いることを提案する。
我々は、インターネット上で公開されている7000万の動画クリップを収集し、各ビデオと関連するテキストをペアリングするモデルを訓練する。
提案手法は,映像表現の事前学習に有効な方法であることがわかった。
論文 参考訳(メタデータ) (2020-07-29T16:19:50Z) - Active Learning for Video Description With Cluster-Regularized Ensemble
Ranking [3.5721078031625018]
クラスタ規則化されたアンサンブル戦略は,ビデオキャプションのためのトレーニングセットを効率的に収集する上で,最高のアクティブな学習手法を提供する。
MSR-VTT と LSMDC のデータセットに対して,トランスフォーマとLSTM を用いたキャプションモデルを用いて検討を行った。
論文 参考訳(メタデータ) (2020-07-27T23:52:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。