論文の概要: Subjective and Objective Analysis of Indian Social Media Video Quality
- arxiv url: http://arxiv.org/abs/2401.02794v1
- Date: Fri, 5 Jan 2024 13:13:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-08 15:05:23.818556
- Title: Subjective and Objective Analysis of Indian Social Media Video Quality
- Title(参考訳): インドのソーシャルメディア映像品質の主観的・客観的分析
- Authors: Sandeep Mishra, Mukul Jha, Alan C. Bovik
- Abstract要約: そこで我々は,ShareChatのモバイル動画の集合に対して,ユーザ生成モバイルビデオコンテンツの知覚的品質に関する大規模主観的研究を行った。
コンテンツは、UGC(User-Generated Content)ビデオ品質データセットの既存のコーパスを文化的に多様化する利点がある。
この新たなデータリソースによって、インドのソーシャルメディアビデオの視覚的品質を予測できるシステムの開発も可能になると期待している。
- 参考スコア(独自算出の注目度): 31.562787181908167
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We conducted a large-scale subjective study of the perceptual quality of
User-Generated Mobile Video Content on a set of mobile-originated videos
obtained from the Indian social media platform ShareChat. The content viewed by
volunteer human subjects under controlled laboratory conditions has the benefit
of culturally diversifying the existing corpus of User-Generated Content (UGC)
video quality datasets. There is a great need for large and diverse UGC-VQA
datasets, given the explosive global growth of the visual internet and social
media platforms. This is particularly true in regard to videos obtained by
smartphones, especially in rapidly emerging economies like India. ShareChat
provides a safe and cultural community oriented space for users to generate and
share content in their preferred Indian languages and dialects. Our subjective
quality study, which is based on this data, offers a boost of cultural, visual,
and language diversification to the video quality research community. We expect
that this new data resource will also allow for the development of systems that
can predict the perceived visual quality of Indian social media videos, to
control scaling and compression protocols for streaming, provide better user
recommendations, and guide content analysis and processing. We demonstrate the
value of the new data resource by conducting a study of leading blind video
quality models on it, including a new model, called MoEVA, which deploys a
mixture of experts to predict video quality. Both the new LIVE-ShareChat
dataset and sample source code for MoEVA are being made freely available to the
research community at https://github.com/sandeep-sm/LIVE-SC
- Abstract(参考訳): インドのソーシャルメディアプラットフォームsharechatから取得したモバイル動画群において,ユーザ生成モバイルビデオコンテンツの知覚的品質に関する大規模主観的研究を行った。
コントロールされた実験室条件下で被験者が見るコンテンツは、既存のUGCビデオ品質データセットを文化的に多様化する利点がある。
ビジュアルインターネットとソーシャルメディアプラットフォームの爆発的なグローバルな成長を考えると、大規模で多様なUGC-VQAデータセットには大きなニーズがあります。
これは特に、スマートフォンが入手したビデオ、特にインドのような急速に発展する経済において、当てはまる。
sharechatは、ユーザーが好みのインドの言語や方言でコンテンツを作成、共有できる、安全で文化的コミュニティ指向のスペースを提供する。
このデータに基づく主観的品質研究は,映像品質研究コミュニティに文化的,視覚的,言語的多様化の促進をもたらす。
この新たなデータリソースにより、インドのソーシャルメディアビデオの視覚的品質を予測し、ストリーミングのスケーリングと圧縮プロトコルを制御し、より良いユーザレコメンデーションを提供し、コンテンツ分析と処理をガイドするシステムの開発も可能になると期待している。
本研究では,映像品質予測のための専門家の混合を展開するmoeva(moeva)という新しいモデルを含む,視覚障害者向け映像品質モデルの研究を通じて,新たなデータ資源の価値を実証する。
新しいLIVE-ShareChatデータセットとMoEVAのサンプルソースコードは、https://github.com/sandeep-sm/LIVE-SCで研究コミュニティに無料で提供される。
関連論文リスト
- Video as the New Language for Real-World Decision Making [100.68643056416394]
ビデオデータは、言語で表現しにくい物理世界に関する重要な情報をキャプチャする。
ビデオは、インターネットの知識を吸収し、多様なタスクを表現できる統一インターフェースとして機能する。
ロボット工学、自動運転、科学といった分野における大きなインパクトの機会を特定します。
論文 参考訳(メタデータ) (2024-02-27T02:05:29Z) - Towards A Better Metric for Text-to-Video Generation [102.16250512265995]
生成モデルは高品質のテキスト、画像、ビデオの合成において顕著な能力を示した。
新たな評価パイプラインであるText-to-Video Score(T2VScore)を導入する。
本尺度は,(1)テキスト記述における映像の忠実度を精査するテキスト・ビデオ・アライメント,(2)ビデオ品質,(2)ビデオ全体の製作口径を専門家の混合で評価するビデオ品質の2つの重要な基準を統合した。
論文 参考訳(メタデータ) (2024-01-15T15:42:39Z) - InternVid: A Large-scale Video-Text Dataset for Multimodal Understanding
and Generation [90.71796406228265]
InternVidは大規模なビデオ中心のマルチモーダルデータセットで、強力で転送可能なビデオテキスト表現の学習を可能にする。
InternVidデータセットは700万本以上のビデオが760万時間近く持続し、合計4.1Bワードの詳細な記述を伴う234万本のビデオクリップが生成される。
論文 参考訳(メタデータ) (2023-07-13T17:58:32Z) - Knowledge Enhanced Model for Live Video Comment Generation [40.762720398152766]
本稿では,ライブビデオコメントの発散と情報的特性に着想を得た知識強化生成モデルを提案する。
本モデルは,事前学習型エンコーダデコーダフレームワークを採用し,外部知識を取り入れている。
MovieLCデータセットとコードがリリースされる。
論文 参考訳(メタデータ) (2023-04-28T07:03:50Z) - Learning Double-Compression Video Fingerprints Left from Social-Media
Platforms [10.196893054623969]
そこで我々は,CNNアーキテクチャを提案する。CNNアーキテクチャは動画コンテンツを分析し,動画を生来のソーシャルネットワークに遡る。
実験によると、ビデオだけでなく、画像の精度も非常に高い。
論文 参考訳(メタデータ) (2022-12-07T14:22:58Z) - How Would The Viewer Feel? Estimating Wellbeing From Video Scenarios [73.24092762346095]
情緒応答と主観的幸福感に注釈を付けた6万本以上のビデオを備えた大規模データセットを2つ導入した。
Video Cognitive Empathyデータセットには、微粒な感情応答の分布のためのアノテーションが含まれており、モデルが感情状態の詳細な理解を得ることができる。
Video to Valenceデータセットには、ビデオ間の相対的な快適性のアノテーションが含まれている。
論文 参考訳(メタデータ) (2022-10-18T17:58:25Z) - Telepresence Video Quality Assessment [13.417089780219326]
ライブストリーミングのためのオンラインビデオ品質予測フレームワークを、視覚的およびオーディオ的品質予測を計算するための別々の経路を持つマルチモーダル学習フレームワークを用いて作成する。
私たちのオールインワンモデルは、パッチ、フレーム、クリップ、オーディオヴィジュアルレベルで正確な品質予測を提供することができます。
論文 参考訳(メタデータ) (2022-07-20T15:02:55Z) - RAPIQUE: Rapid and Accurate Video Quality Prediction of User Generated
Content [44.03188436272383]
RAPIQUE(Rapid and Accurate Video Quality Evaluator)をダブする、コンテンツのための効率的で効率的なビデオ品質モデルを紹介します。
RAPIQUEは、品質認識のシーン統計機能と意味認識の深い畳み込み機能の両方の利点を組み合わせて活用します。
最近の大規模なビデオ品質データベースに関する実験結果から、RAPIQUEはすべてのデータセットで最高のパフォーマンスを計算コストを大幅に削減できます。
論文 参考訳(メタデータ) (2021-01-26T17:23:46Z) - VLEngagement: A Dataset of Scientific Video Lectures for Evaluating
Population-based Engagement [23.078055803229912]
ビデオ講義は、現在のデジタル時代の大衆に知識を与える主要なモダリティの1つとなっている。
科学ビデオ講義における学習者の関与を理解することを目的としたデータと研究は依然として重要なニーズである。
本稿では,VLEngagementについて紹介する。VLEngagementは,公開科学ビデオ講義から抽出したコンテンツベースおよびビデオ特有の特徴からなる,新しいデータセットである。
論文 参考訳(メタデータ) (2020-11-02T14:20:19Z) - UGC-VQA: Benchmarking Blind Video Quality Assessment for User Generated
Content [59.13821614689478]
コンテンツの品質劣化は予測不能で、複雑で、しばしば開始されるため、Wild動画のブラインド品質の予測は非常に難しい。
ここでは、主要なVQAモデルの包括的評価を行うことにより、この問題の進展に寄与する。
先行するVQAモデルの特徴の上に特徴選択戦略を適用することで,先行するモデルが使用する統計的特徴のうち60点を抽出することができる。
我々の実験結果から,VIDEVALは,他の先行モデルよりも計算コストがかなり低く,最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-05-29T00:39:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。