論文の概要: Content and Engagement Trends in COVID-19 YouTube Videos: Evidence from the Late Pandemic
- arxiv url: http://arxiv.org/abs/2509.01954v1
- Date: Tue, 02 Sep 2025 04:49:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.909566
- Title: Content and Engagement Trends in COVID-19 YouTube Videos: Evidence from the Late Pandemic
- Title(参考訳): 新型コロナウイルスのYouTube動画の内容とエンゲージメント動向:後期パンデミックからの証拠
- Authors: Nirmalya Thakur, Madeline D Hartel, Lane Michael Boden, Dallas Enriquez, Boston Joyner Ricks,
- Abstract要約: この研究は、2023年1月から2024年10月までにYouTubeで公開された約1万本の新型コロナウイルス関連ビデオを調査した。
出版活動は一貫した平日効果を示した。
ビデオの長さのカテゴリーレベルの分析では、対照的な結果が示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work investigated about 10,000 COVID-19-related YouTube videos published between January 2023 and October 2024 to evaluate how temporal, lexical, linguistic, and structural factors influenced engagement during the late pandemic period. Publishing activity showed consistent weekday effects: in the first window, average views peaked on Mondays at 92,658; in the second, on Wednesdays at 115,479; and in the third, on Fridays at 84,874, reflecting a shift in audience attention toward mid- and late week. Lexical analysis of video titles revealed recurring high-frequency keywords related to COVID-19 and YouTube features, including COVID, coronavirus, shorts, and live. Frequency analysis revealed sharp spikes, with COVID appearing in 799 video titles in August 2024, while engagement analysis showed that videos titled with shorts attracted very high views, peaking at 2.16 million average views per video in June 2023. Analysis of sentiment of video descriptions in English showed weak correlation with views in the raw data (Pearson r = 0.0154, p = 0.2987), but stronger correlations emerged once outliers were addressed, with Spearman r = 0.110 (p < 0.001) and Pearson r = 0.0925 (p < 0.001). Category-level analysis of video durations revealed contrasting outcomes: long videos focusing on people and blogs averaged 209,114 views, short entertainment videos averaged 288,675 views, and medium-to-long news and politics videos averaged 51,309 and 59,226 views, respectively. These results demonstrate that engagement patterns of COVID-19-related videos on YouTube during the late pandemic followed distinct characteristics driven by publishing schedules, title vocabulary, topics, and genre-specific duration effects.
- Abstract(参考訳): この研究は、2023年1月から2024年10月までに公開された約1万本の新型コロナウイルス関連YouTubeビデオを調査し、パンデミック後期における時間的、語彙的、言語的、構造的要因がエンゲージメントに与える影響を評価した。
1週目は月曜92,658件、第2週は水曜日1115,479件、第3週は金曜日84,874件で、観客の注目度の変化を反映している。
ビデオタイトルの語彙分析では、新型コロナウイルス(COVID-19)、新型コロナウイルス、ショーツ、ライブなど、YouTubeの機能に関連する高周波キーワードが繰り返し表示された。
頻度分析の結果、2024年8月には799本のビデオタイトルに新型コロナウイルスが登場し、エンゲージメント分析では、ショーツのタイトルの動画は非常に高い視聴率を示し、2023年6月には平均2.16億ビューを記録した。
Pearson r = 0.0154, p = 0.2987, しかし, Spearman r = 0.110 (p < 0.001) と Pearson r = 0.0925 (p < 0.001) を併用すると, 映像記述の感情は生データとの相関が弱い(Pearson r = 0.0154, p = 0.2987)。
209,114ビュー、短いエンターテイメントビデオは288,675ビュー、中から長いニュースと政治ビデオは51,309ビュー、59,226ビューだった。
これらの結果は、パンデミック末期のYouTube上での新型コロナウイルス関連ビデオのエンゲージメントパターンが、出版スケジュール、タイトル語彙、トピックス、ジャンル別持続時間の影響によって引き起こされる特徴に追従したことを示している。
関連論文リスト
- NTIRE 2025 Challenge on UGC Video Enhancement: Methods and Results [73.23764765210825]
本稿では,NTIRE 2025 Challenge on Video Enhancementについて概説する。
このチャレンジは、ユーザー生成した150のコンテンツビデオのセットを構築した。
参加者の目標は、このような映像の視覚的品質を向上させるアルゴリズムを開発することである。
論文 参考訳(メタデータ) (2025-05-05T20:06:11Z) - COVID-19 on YouTube: A Data-Driven Analysis of Sentiment, Toxicity, and Content Recommendations [0.0]
本研究は、YouTube上での新型コロナウイルスに関するデータ駆動分析である。
2023年1月から2024年10月までに公開されたビデオコンテンツの感情、毒性、テーマパターンを調べます。
関連性およびコンテキストに整合したビデオレコメンデーションを保証するためのレコメンデーションシステムを開発した。
論文 参考訳(メタデータ) (2024-12-22T22:43:36Z) - HOTVCOM: Generating Buzzworthy Comments for Videos [49.39846630199698]
この研究は、中国最大のビデオコンテンツデータセットであるtextscHotVComを紹介し、94万の多様なビデオと1億1700万のコメントからなる。
また、中国語のビデオデータセット上で、視覚的、聴覚的、テキスト的データを相乗的に統合し、影響力のあるホットコンテンツを生成するtexttComHeatフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-23T16:45:13Z) - AIM 2024 Challenge on Video Saliency Prediction: Methods and Results [105.09572982350532]
本稿では,AIM 2024におけるビデオ・サリエンシ予測の課題について概説する。
参加者の目標は、提供されたビデオシーケンスのセットに対して正確な精度マップを予測する方法を開発することであった。
論文 参考訳(メタデータ) (2024-09-23T08:59:22Z) - Infer Induced Sentiment of Comment Response to Video: A New Task, Dataset and Baseline [30.379212611361893]
既存のビデオマルチモーダル感情分析は、主にビデオ内の人々の感情表現に焦点を当てているが、ビデオを見ながら視聴者の感情を無視することが多い。
マイクロビデオに対するコメント応答に応じて、意見や感情を推測するためのマルチモーダル感性分析(MSA-CRVI)を提案する。
107,267のコメントと8,210のマイクロビデオを含み、68.83時間である。
論文 参考訳(メタデータ) (2024-05-15T10:24:54Z) - NTIRE 2023 Quality Assessment of Video Enhancement Challenge [97.809937484099]
NTIRE 2023 Quality Assessment of Video Enhancement Challengeについて報告する。
課題は、ビデオ処理分野における大きな課題、すなわち、強化されたビデオに対するビデオ品質評価(VQA)に対処することである。
参加者数は167名。
論文 参考訳(メタデータ) (2023-07-19T02:33:42Z) - Leveraging Natural Language Processing For Public Health Screening On
YouTube: A COVID-19 Case Study [0.0]
本研究の目的は,2019年のコロナウイルス(COVID-19)の診断に関連するYouTube vlogの音声内容の同定に自然言語処理を用いることである。
新型コロナウイルスに関連する単語を含む200語からなる辞書が作成された。
データはトピックモデリング、ワードクラウド、辞書マッチングを用いて分析された。
論文 参考訳(メタデータ) (2023-06-01T21:40:48Z) - Extracting Major Topics of COVID-19 Related Tweets [2.867517731896504]
トピックモデリング手法を用いて,全国の検疫期間(2020年3月23日~6月23日)に,Covid-19のツイートからグローバルトピックを抽出する。
また,世界と4カ国の話題の時間的傾向を分析した。
論文 参考訳(メタデータ) (2021-10-05T08:40:51Z) - QVHighlights: Detecting Moments and Highlights in Videos via Natural
Language Queries [89.24431389933703]
Query-based Video Highlights (QVHighlights) データセットを提示する。
これは1万本以上のYouTubeビデオで構成され、幅広いトピックをカバーしている。
データセット内の各ビデオには、(1)人書き自由形式のNLクエリ、(2)クエリに関するビデオw.r.t.の関連モーメント、(3)クエリに関連するすべてのクリップに対する5ポイントスケールのサリエンシスコアが注釈付けされている。
論文 参考訳(メタデータ) (2021-07-20T16:42:58Z) - Sentiment Analysis of Covid-19 Tweets using Evolutionary
Classification-Based LSTM Model [0.6445605125467573]
本稿では,コロナウイルスやコビッドウイルスに関する大量のツイートの感情分析について述べる。
我々は、進化的分類とn-gram分析によるCovid-19流行に関連するトピックに対する世論感情の傾向を分析した。
我々は、Covid-19のデータに対する感情を予測するために、2種類の評価されたつぶやきを使用して、長期間のネットワークを訓練し、全体の精度は84.46%に達した。
論文 参考訳(メタデータ) (2021-06-13T04:27:21Z) - VIOLIN: A Large-Scale Dataset for Video-and-Language Inference [103.7457132841367]
ビデオとテキストのマルチモーダル理解のための新しいタスク, Video-and-Language Inferenceを導入する。
サブタイトルを前提としたビデオクリップと、そのビデオコンテンツに基づいて自然言語仮説とをペアリングすると、モデルは、その仮説が所定のビデオクリップに関連付けられているか、矛盾しているかを推測する必要がある。
このタスクには、Violin(VIdeO-and-Language Inference)という名の新しい大規模データセットが導入された。
論文 参考訳(メタデータ) (2020-03-25T20:39:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。