論文の概要: A Clustering-Based Method for Automatic Educational Video Recommendation
Using Deep Face-Features of Lecturers
- arxiv url: http://arxiv.org/abs/2010.04676v1
- Date: Fri, 9 Oct 2020 16:53:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 06:24:33.813510
- Title: A Clustering-Based Method for Automatic Educational Video Recommendation
Using Deep Face-Features of Lecturers
- Title(参考訳): 教師の深層顔機能を利用したクラスタリングによる教育ビデオ推薦
- Authors: Paulo R. C. Mendes, Eduardo S. Vieira, \'Alan L. V. Guedes, Antonio J.
G. Busson, and S\'ergio Colcher
- Abstract要約: 本稿では,教師の顔深度を識別することなく,教師の顔深度を利用して教育用ビデオレコメンデーションを生成する手法を提案する。
我々は教師なしの顔クラスタリング機構を用いて、講師の存在に基づいてビデオ間の関係を創出する。
参考講師の出席時間に基づいて,これらの推薦動画をランク付けする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Discovering and accessing specific content within educational video bases is
a challenging task, mainly because of the abundance of video content and its
diversity. Recommender systems are often used to enhance the ability to find
and select content. But, recommendation mechanisms, especially those based on
textual information, exhibit some limitations, such as being error-prone to
manually created keywords or due to imprecise speech recognition. This paper
presents a method for generating educational video recommendation using deep
face-features of lecturers without identifying them. More precisely, we use an
unsupervised face clustering mechanism to create relations among the videos
based on the lecturer's presence. Then, for a selected educational video taken
as a reference, we recommend the ones where the presence of the same lecturers
is detected. Moreover, we rank these recommended videos based on the amount of
time the referenced lecturers were present. For this task, we achieved a mAP
value of 99.165%.
- Abstract(参考訳): 教育ビデオベース内で特定のコンテンツを発見してアクセスすることは、主にビデオコンテンツの豊富さとその多様性のために難しい課題である。
リコメンダシステムは、しばしばコンテンツを見つけて選択する能力を高めるために使用される。
しかし、リコメンデーションメカニズム、特にテキスト情報に基づくものは、手動で作成したキーワードの誤りや不正確な音声認識など、いくつかの制限がある。
本稿では,講師の深い顔特徴を識別せずに教育ビデオ推薦を作成する方法を提案する。
より正確には、教師なしの顔クラスタリング機構を使用して、講師の存在に基づくビデオ間の関係を作成する。
そして,参照として選択した教育ビデオに対して,同じ講師の存在を検知した動画を推薦する。
また,これらの推奨ビデオのランク付けは,参照した講師の視聴時間に基づいて行う。
このタスクでは、mAPの99.165%を達成しました。
関連論文リスト
- Active Learning for Video Classification with Frame Level Queries [13.135234328352885]
ビデオ分類のための新しいアクティブラーニングフレームワークを提案する。
本フレームワークでは,ビデオ毎に一組の映像と,一組の情報フレームを識別する。
これは、ラベルを付けるための完全なビデオを見るよりも、手作業で作業する方がずっと少ない。
論文 参考訳(メタデータ) (2023-07-10T15:47:13Z) - A Video Is Worth 4096 Tokens: Verbalize Videos To Understand Them In
Zero Shot [67.00455874279383]
そこで本研究では,自然言語による記述を生成するために長編動画を音声化し,生成したストーリーの映像理解タスクを実行することを提案する。
提案手法は,ゼロショットであるにもかかわらず,ビデオ理解のための教師付きベースラインよりもはるかに優れた結果が得られる。
ストーリー理解ベンチマークの欠如を緩和するため,我々は,説得戦略の識別に関する計算社会科学における重要な課題に関する最初のデータセットを公開している。
論文 参考訳(メタデータ) (2023-05-16T19:13:11Z) - Self-Supervised Learning for Videos: A Survey [70.37277191524755]
自己教師型学習は、画像ドメインとビデオドメインの両方で有望である。
本稿では,ビデオ領域に着目した自己教師型学習における既存のアプローチについて概観する。
論文 参考訳(メタデータ) (2022-06-18T00:26:52Z) - Learning from Untrimmed Videos: Self-Supervised Video Representation
Learning with Hierarchical Consistency [60.756222188023635]
教師なしビデオにおいて,より豊富な情報を活用することで表現の学習を提案する。
HiCoは、トリミングされていないビデオのより強力な表現を生成するだけでなく、トリミングされたビデオに適用した場合の表現品質も向上する。
論文 参考訳(メタデータ) (2022-04-06T18:04:54Z) - CLUE: Contextualised Unified Explainable Learning of User Engagement in
Video Lectures [6.25256391074865]
本稿では,オンライン授業ビデオから抽出した特徴から学習する統合モデルCLUEを提案する。
我々のモデルは、言語、文脈情報、配信されたコンテンツのテキスト感情の複雑さをモデル化するために、様々なマルチモーダル機能を利用する。
論文 参考訳(メタデータ) (2022-01-14T19:51:06Z) - Cross-category Video Highlight Detection via Set-based Learning [55.49267044910344]
本稿では,Dual-Learner-based Video Highlight Detection (DL-VHD) フレームワークを提案する。
対象とするカテゴリビデオの区別と,ソースビデオカテゴリにおけるハイライトモーメントの特徴を学習する。
さまざまなカテゴリのハイライト検出タスクにおいて、一般的な5つのUnsupervised Domain Adaptation (UDA)アルゴリズムより優れています。
論文 参考訳(メタデータ) (2021-08-26T13:06:47Z) - Incorporating Domain Knowledge To Improve Topic Segmentation Of Long
MOOC Lecture Videos [4.189643331553923]
本稿では,長い講義ビデオ内に存在するさまざまなコヒーレントなトピックを自動的に検出するアルゴリズムを提案する。
音声からテキストへの書き起こしにおける言語モデルを用いて,ビデオ全体の暗黙的な意味を捉える。
また、インストラクターが結合し、教育中に異なる概念を結びつける方法を捉えることができるドメイン知識も活用します。
論文 参考訳(メタデータ) (2020-12-08T13:37:40Z) - The complementarity of a diverse range of deep learning features
extracted from video content for video recommendation [2.092922495279074]
我々は、ビデオレコメンデーションを提供するための様々なディープラーニング機能の可能性を探究する。
映画レコメンデーションのための実世界のビデオデータセットの実験では、ディープラーニングの機能は手作りの機能よりも優れていることが示されている。
特に、ディープラーニングオーディオ機能とアクション中心のディープラーニング機能によって生成されるレコメンデーションは、MFCCや最先端のiDT機能よりも優れている。
論文 参考訳(メタデータ) (2020-11-21T18:00:28Z) - Watch and Learn: Mapping Language and Noisy Real-world Videos with
Self-supervision [54.73758942064708]
我々は、明示的なアノテーションを使わずに、文章と騒々しいビデオスニペットのマッピングを学習することで、視覚と自然言語を理解するように機械に教える。
トレーニングと評価のために、多数のオンラインビデオとサブタイトルを含む新しいデータセットApartmenTourをコントリビュートする。
論文 参考訳(メタデータ) (2020-11-19T03:43:56Z) - A Recommender System For Open Educational Videos Based On Skill
Requirements [8.595270610973586]
我々は,学習者が労働市場に要求されるスキルを習得するために,学習者が関連するオープンな教育ビデオを見つけるための新しい方法を提案する。
我々は,職種別およびテキストマイニング手法を求職者発表に応用し,職種と必要なスキルを一致させるプロトタイプを構築した。
250本以上のビデオが推薦され、その82.8%がインタビュアーの役に立つものとして扱われた。
論文 参考訳(メタデータ) (2020-05-21T12:12:47Z) - A Benchmark for Structured Procedural Knowledge Extraction from Cooking
Videos [126.66212285239624]
本稿では,調理ビデオから抽出した構造化手続き的知識のベンチマークを提案する。
手動で注釈付けしたオープン語彙リソースには、356の指導的調理ビデオと15,523のビデオクリップ/文レベルのアノテーションが含まれています。
論文 参考訳(メタデータ) (2020-05-02T05:15:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。