論文の概要: Tutorial Recommendation for Livestream Videos using Discourse-Level
Consistency and Ontology-Based Filtering
- arxiv url: http://arxiv.org/abs/2209.04953v1
- Date: Sun, 11 Sep 2022 22:45:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 13:02:58.930228
- Title: Tutorial Recommendation for Livestream Videos using Discourse-Level
Consistency and Ontology-Based Filtering
- Title(参考訳): 談話レベル一貫性とオントロジーに基づくフィルタリングを用いたライブストリーム映像のチュートリアル推薦
- Authors: Amir Pouran Ben Veyseh, Franck Dernoncourt, Thien Huu Nguyen
- Abstract要約: 本稿では,ライブストリーミングビデオのチュートリアルレコメンデーションタスクのための新しいデータセットとモデルを提案する。
システムは、ライブストリーミングビデオの内容を分析し、最も関連性の高いチュートリアルを推薦することができる。
- 参考スコア(独自算出の注目度): 75.78484403289228
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Streaming videos is one of the methods for creators to share their creative
works with their audience. In these videos, the streamer share how they achieve
their final objective by using various tools in one or several programs for
creative projects. To this end, the steps required to achieve the final goal
can be discussed. As such, these videos could provide substantial educational
content that can be used to learn how to employ the tools used by the streamer.
However, one of the drawbacks is that the streamer might not provide enough
details for every step. Therefore, for the learners, it might be difficult to
catch up with all the steps. In order to alleviate this issue, one solution is
to link the streaming videos with the relevant tutorial available for the tools
used in the streaming video. More specifically, a system can analyze the
content of the live streaming video and recommend the most relevant tutorials.
Since the existing document recommendation models cannot handle this situation,
in this work, we present a novel dataset and model for the task of tutorial
recommendation for live-streamed videos. We conduct extensive analyses on the
proposed dataset and models, revealing the challenging nature of this task.
- Abstract(参考訳): ビデオのストリーミングは、クリエイターがクリエイティブな作品をオーディエンスと共有するための方法の1つだ。
これらのビデオでは、ストリーマーはクリエイティブなプロジェクトのために1つまたは複数のプログラムで様々なツールを使用することで、最終的な目的を達成する方法を共有している。
この目的のために、最終目標を達成するために必要なステップを議論することができる。
そのため、これらのビデオは、ストリーマーが使用するツールの使い方を学ぶために使用できる、相当な教育コンテンツを提供することができる。
しかし、欠点の1つは、ストリーマーがすべてのステップに対して十分な詳細を提供していないことである。
したがって、学習者にとって、すべてのステップに追いつくのは難しいかもしれない。
この問題を緩和するためには、ストリーミングビデオと、ストリーミングビデオで使用されるツールに関連するチュートリアルをリンクする、という方法がある。
より具体的には、システムはライブストリーミングビデオの内容を分析し、最も関連するチュートリアルを推薦することができる。
既存の文書レコメンデーションモデルは,このような状況に対処できないため,本研究では,ライブストリーミングビデオのチュートリアルレコメンデーションタスクのための新しいデータセットとモデルを提案する。
提案するデータセットとモデルについて広範な分析を行い,この課題の難解な性質を明らかにする。
関連論文リスト
- Detours for Navigating Instructional Videos [58.1645668396789]
We propose VidDetours, a video-lang approach that learn to retrieve the target temporal segments from a large repository of how-to's。
本稿では,ビデオ検索と質問応答の最良の方法に比べて,モデルが大幅に改善し,リコール率が35%を超えることを示す。
論文 参考訳(メタデータ) (2024-01-03T16:38:56Z) - VIDiff: Translating Videos via Multi-Modal Instructions with Diffusion
Models [96.55004961251889]
Video Instruction Diffusion (VIDiff) は、幅広いビデオタスク用に設計された統合基盤モデルである。
我々のモデルは,ユーザの指示に基づいて,所望の結果を数秒以内に編集し,翻訳することができる。
様々な入力ビデオや書き起こしに対して,質的かつ定量的に,説得力のある生成結果を提供する。
論文 参考訳(メタデータ) (2023-11-30T18:59:52Z) - TL;DW? Summarizing Instructional Videos with Task Relevance &
Cross-Modal Saliency [133.75876535332003]
我々は,ビデオ要約の未探索領域である指導ビデオの要約に焦点をあてる。
既存のビデオ要約データセットは、手動のフレームレベルのアノテーションに依存している。
本稿では,文脈対応の時間的ビデオエンコーダとセグメントスコアリング変換器を組み合わせた指導ビデオ要約ネットワークを提案する。
論文 参考訳(メタデータ) (2022-08-14T04:07:40Z) - Self-Supervised Learning for Videos: A Survey [70.37277191524755]
自己教師型学習は、画像ドメインとビデオドメインの両方で有望である。
本稿では,ビデオ領域に着目した自己教師型学習における既存のアプローチについて概観する。
論文 参考訳(メタデータ) (2022-06-18T00:26:52Z) - Highlight Timestamp Detection Model for Comedy Videos via Multimodal
Sentiment Analysis [1.6181085766811525]
本研究では,この分野での最先端性能を得るためのマルチモーダル構造を提案する。
マルチモーダルビデオ理解のためのベンチマークをいくつか選択し、最適な性能を求めるのに最適なモデルを適用した。
論文 参考訳(メタデータ) (2021-05-28T08:39:19Z) - The complementarity of a diverse range of deep learning features
extracted from video content for video recommendation [2.092922495279074]
我々は、ビデオレコメンデーションを提供するための様々なディープラーニング機能の可能性を探究する。
映画レコメンデーションのための実世界のビデオデータセットの実験では、ディープラーニングの機能は手作りの機能よりも優れていることが示されている。
特に、ディープラーニングオーディオ機能とアクション中心のディープラーニング機能によって生成されるレコメンデーションは、MFCCや最先端のiDT機能よりも優れている。
論文 参考訳(メタデータ) (2020-11-21T18:00:28Z) - Non-Adversarial Video Synthesis with Learned Priors [53.26777815740381]
我々は、参照入力フレームを使わずに、遅延雑音ベクトルからビデオを生成する問題に焦点をあてる。
本研究では,入力潜時空間,繰り返しニューラルネットワークの重み付け,非対角学習によるジェネレータを協調的に最適化する手法を開発した。
提案手法は,既存の最先端手法と比較して高品質なビデオを生成する。
論文 参考訳(メタデータ) (2020-03-21T02:57:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。