論文の概要: Quantifying the Academic Quality of Children's Videos using Machine
Comprehension
- arxiv url: http://arxiv.org/abs/2303.17201v1
- Date: Thu, 30 Mar 2023 07:52:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-31 14:06:05.636353
- Title: Quantifying the Academic Quality of Children's Videos using Machine
Comprehension
- Title(参考訳): 機械理解による子どものビデオの学習品質の定量化
- Authors: Sumeet Kumar, Mallikarjuna T., Ashiqur Khudabukhsh
- Abstract要約: この研究は学校で教えられていることの点から学ぶことに焦点を当てている。
子どものビデオの学術的品質を測定する方法を提案する。
- 参考スコア(独自算出の注目度): 2.642698101441705
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: YouTube Kids (YTK) is one of the most popular kids' applications used by
millions of kids daily. However, various studies have highlighted concerns
about the videos on the platform, like the over-presence of entertaining and
commercial content. YouTube recently proposed high-quality guidelines that
include `promoting learning' and proposed to use it in ranking channels.
However, the concept of learning is multi-faceted, and it can be difficult to
define and measure in the context of online videos. This research focuses on
learning in terms of what's taught in schools and proposes a way to measure the
academic quality of children's videos. Using a new dataset of questions and
answers from children's videos, we first show that a Reading Comprehension (RC)
model can estimate academic learning. Then, using a large dataset of middle
school textbook questions on diverse topics, we quantify the academic quality
of top channels as the number of children's textbook questions that an RC model
can correctly answer. By analyzing over 80,000 videos posted on the top 100
channels, we present the first thorough analysis of the academic quality of
channels on YTK.
- Abstract(参考訳): youtube kids (ytk) は、何百万人もの子どもが毎日使っている最も人気のある子供向けアプリケーションの一つである。
しかし、さまざまな研究がプラットフォーム上のビデオに対する懸念を強調している。
youtubeは先日,‘promoting learning’を含む高品質なガイドラインを提案し,ランキングチャネルで使用することを提案している。
しかし、学習の概念は多面的であり、オンラインビデオの文脈で定義・測定することは困難である。
本研究は、学校で教えられていることの学習に焦点を当て、子どものビデオの学術的品質を測定する方法を提案する。
子どものビデオからの質問と回答の新しいデータセットを用いて、まず、学習の可読性(Reading Comprehension, RC)モデルを推定できることを示す。
次に,多種多様な話題に関する中学校教科書質問の大規模データセットを用いて,rcモデルが正しく回答できる児童教科書質問数として上位チャネルの学術的品質を定量化する。
トップ100のチャンネルに投稿された8万本のビデオを分析して、YTKのチャンネルの学術的品質を初めて詳細に分析した。
関連論文リスト
- VCEval: Rethinking What is a Good Educational Video and How to Automatically Evaluate It [46.67441830344145]
本稿では,映像コンテンツの品質を自動評価する作業に焦点をあてる。
これらの原則に基づいて,3つの評価原則を提案し,新しい評価フレームワークであるtextitVCEval を設計する。
本手法は,コンテンツ品質の異なるビデオコースを効果的に識別し,様々な解釈可能な結果を生成する。
論文 参考訳(メタデータ) (2024-06-15T13:18:30Z) - TV100: A TV Series Dataset that Pre-Trained CLIP Has Not Seen [59.41896032227508]
2021年以降に公開されたテレビシリーズの画像からなる新しいデータセットを公開している。
このデータセットは、インクリメンタルラーニングの評価を含む、さまざまな研究領域での利用に重要な可能性を秘めている。
論文 参考訳(メタデータ) (2024-04-16T17:47:45Z) - Self-Supervised Learning for Videos: A Survey [70.37277191524755]
自己教師型学習は、画像ドメインとビデオドメインの両方で有望である。
本稿では,ビデオ領域に着目した自己教師型学習における既存のアプローチについて概観する。
論文 参考訳(メタデータ) (2022-06-18T00:26:52Z) - Subjective and Objective Analysis of Streamed Gaming Videos [60.32100758447269]
ゲームビデオにおける主観的および客観的ビデオ品質評価(VQA)モデルについて検討する。
LIVE-YouTube Gaming Video Quality (LIVE-YT-Gaming) と呼ばれる新しいゲームビデオリソースを作成しました。
このデータについて主観的人間調査を行い,61名の被験者が記録した品質評価18,600名を得た。
論文 参考訳(メタデータ) (2022-03-24T03:02:57Z) - Video Question Answering: Datasets, Algorithms and Challenges [99.9179674610955]
Video Question Answering (VideoQA) は、与えられたビデオに応じて自然言語の質問に答えることを目的としている。
本稿では、データセット、アルゴリズム、ユニークな課題に焦点を当てた、ビデオQAの明確な分類と包括的分析を提供する。
論文 参考訳(メタデータ) (2022-03-02T16:34:09Z) - NEWSKVQA: Knowledge-Aware News Video Question Answering [5.720640816755851]
我々は,ニュースビデオの文脈において,知識に基づく質問に答えることという,ビデオ質問応答の新しいフロンティアを探求する。
我々は156時間にまたがる12Kのニュースビデオの新しいデータセットを、8263のユニークなエンティティをカバーする100万の質問回答ペアでキュレートする。
本稿では,テキストによる複数選択質問やビデオ,その書き起こしや知識ベースに対するマルチモーダル推論を行う新しい手法NEWSKVQAを提案する。
論文 参考訳(メタデータ) (2022-02-08T17:31:31Z) - VALUE: A Multi-Task Benchmark for Video-and-Language Understanding
Evaluation [124.02278735049235]
VALUEベンチマークは、幅広いビデオジャンル、ビデオの長さ、データボリューム、タスクの難易度をカバーすることを目的としている。
大規模なVidL事前学習による各種ベースライン法の評価を行った。
我々の最高のモデルと人間のパフォーマンスの間の大きなギャップは、先進的なVidLモデルの将来の研究を要求する。
論文 参考訳(メタデータ) (2021-06-08T18:34:21Z) - VLEngagement: A Dataset of Scientific Video Lectures for Evaluating
Population-based Engagement [23.078055803229912]
ビデオ講義は、現在のデジタル時代の大衆に知識を与える主要なモダリティの1つとなっている。
科学ビデオ講義における学習者の関与を理解することを目的としたデータと研究は依然として重要なニーズである。
本稿では,VLEngagementについて紹介する。VLEngagementは,公開科学ビデオ講義から抽出したコンテンツベースおよびビデオ特有の特徴からなる,新しいデータセットである。
論文 参考訳(メタデータ) (2020-11-02T14:20:19Z) - Classification of Important Segments in Educational Videos using
Multimodal Features [10.175871202841346]
本稿では,最先端の音声・視覚・テキスト機能を利用したマルチモーダルニューラルアーキテクチャを提案する。
本実験では,視覚的・時間的情報の影響と,重大予測に対するマルチモーダル特徴の組み合わせについて検討した。
論文 参考訳(メタデータ) (2020-10-26T14:40:23Z) - A Clustering-Based Method for Automatic Educational Video Recommendation
Using Deep Face-Features of Lecturers [0.0]
本稿では,教師の顔深度を識別することなく,教師の顔深度を利用して教育用ビデオレコメンデーションを生成する手法を提案する。
我々は教師なしの顔クラスタリング機構を用いて、講師の存在に基づいてビデオ間の関係を創出する。
参考講師の出席時間に基づいて,これらの推薦動画をランク付けする。
論文 参考訳(メタデータ) (2020-10-09T16:53:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。