論文の概要: Deep Architectures for Content Moderation and Movie Content Rating
- arxiv url: http://arxiv.org/abs/2212.04533v2
- Date: Mon, 12 Dec 2022 07:53:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 12:40:07.129980
- Title: Deep Architectures for Content Moderation and Movie Content Rating
- Title(参考訳): コンテンツモデレーションと映画コンテンツ評価のための深層アーキテクチャ
- Authors: Fatih Cagatay Akyon, Alptekin Temizel
- Abstract要約: 映画コンテンツの格付けとテレビ番組の格付けは、専門委員会によって確立された2つの最も一般的な格付けシステムである。
コンピュータビジョンに基づく映像コンテンツ分析技術を用いて評価プロセスを自動化することが望ましい方法である。
本稿では,アクション認識,マルチモーダル学習,映画ジャンル分類,センシティブコンテンツ検出に関する関連研究を要約する。
- 参考スコア(独自算出の注目度): 3.04585143845864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rating a video based on its content is an important step for classifying
video age categories. Movie content rating and TV show rating are the two most
common rating systems established by professional committees. However, manually
reviewing and evaluating scene/film content by a committee is a tedious work
and it becomes increasingly difficult with the ever-growing amount of online
video content. As such, a desirable solution is to use computer vision based
video content analysis techniques to automate the evaluation process. In this
paper, related works are summarized for action recognition, multi-modal
learning, movie genre classification, and sensitive content detection in the
context of content moderation and movie content rating. The project page is
available at https://github.com/fcakyon/content-moderation-deep-learning.
- Abstract(参考訳): コンテンツに基づくビデオの評価は、ビデオ年齢カテゴリーを分類するための重要なステップである。
映画コンテンツレーティングとテレビ番組レーティングは、専門家委員会が設立した2つの最も一般的なレーティングシステムである。
しかし、委員会によるシーン・フィルムコンテンツの手作業によるレビュー・評価は面倒な作業であり、オンラインビデオコンテンツの増大がますます困難になっている。
そのため、コンピュータビジョンに基づく映像コンテンツ分析技術を用いて評価プロセスを自動化することが望ましい。
本稿では,アクション認識,マルチモーダル学習,映画ジャンル分類,コンテンツモデレーションと映画コンテンツ評価の文脈におけるセンシティブなコンテンツ検出について要約する。
プロジェクトページはhttps://github.com/fcakyon/content-moderation-deep-learningにある。
関連論文リスト
- Perceptual Video Quality Assessment: A Survey [63.61214597655413]
映像品質評価は,映像処理分野において重要な役割を担っている。
過去20年間に様々な主観的・客観的な映像品質評価研究が実施されてきた。
この調査は、これらのビデオ品質アセスメント研究の最新かつ包括的なレビューを提供する。
論文 参考訳(メタデータ) (2024-02-05T16:13:52Z) - The Potential of Vision-Language Models for Content Moderation of
Children's Videos [1.0589208420411014]
本稿では、文脈固有の言語がコンテンツモデレーション性能にどのように影響するかを詳細に分析する。
コンテンツモデレーションのプロンプトにもっとコンテキストを含めることが重要です。
論文 参考訳(メタデータ) (2023-12-06T22:29:16Z) - Extraction and Summarization of Explicit Video Content using Multi-Modal
Deep Learning [0.0]
本稿では,マルチモーダル深層学習を用いて,まず入力ビデオの明示的なセグメントを抽出し,テキストを用いてコンテンツを要約し,その年齢と年齢を判定するパイプラインを提案する。
また、標準メトリクスを使用して、最後にパイプラインの有効性を評価します。
論文 参考訳(メタデータ) (2023-11-17T22:44:05Z) - Incentivizing High-Quality Content in Online Recommender Systems [81.99128189574643]
オンライン学習によるインセンティブを考察し,ナッシュ均衡におけるコンテンツの質を分析した。
HedgeやEXP3のような古典的なオンライン学習アルゴリズムは、残念ながらプロデューサに低品質のコンテンツを作る動機を与えています。
このネガティブな結果に動機づけられた我々は、プロデューサに高品質なコンテンツを作るためのインセンティブを正しく与える異なる学習アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-06-13T00:55:10Z) - TL;DW? Summarizing Instructional Videos with Task Relevance &
Cross-Modal Saliency [133.75876535332003]
我々は,ビデオ要約の未探索領域である指導ビデオの要約に焦点をあてる。
既存のビデオ要約データセットは、手動のフレームレベルのアノテーションに依存している。
本稿では,文脈対応の時間的ビデオエンコーダとセグメントスコアリング変換器を組み合わせた指導ビデオ要約ネットワークを提案する。
論文 参考訳(メタデータ) (2022-08-14T04:07:40Z) - VPN: Video Provenance Network for Robust Content Attribution [72.12494245048504]
VPN - オンラインで共有されているビデオから出典情報を復元するコンテンツ属性手法を提案する。
完全長あるいは切り離されたビデオクエリを用いて,このようなビデオのマッチングに頑健な検索埋め込みを学習する。
一度ビデオクリップの信頼できるデータベースにマッチすると、そのクリップの出所に関する関連情報がユーザに提示される。
論文 参考訳(メタデータ) (2021-09-21T09:07:05Z) - Video Ads Content Structuring by Combining Scene Confidence Prediction
and Tagging [10.609715843964263]
そこで本研究では,まずシーン境界を提供し,各シーンに対する信頼度スコアと,そのシーンに予測されるタグクラスを組み合わせた2段階の手法を提案する。
我々の組み合わせた手法は、挑戦的な“Tencent〜ビデオ”データセットの以前のベースラインを改善します。
論文 参考訳(メタデータ) (2021-08-20T15:13:20Z) - Transcript to Video: Efficient Clip Sequencing from Texts [65.87890762420922]
Transcript-to-Video - テキストを入力として使用する弱教師付きフレームワークで、広範なショットコレクションからビデオシーケンスを自動的に生成する。
具体的には、視覚言語表現とモデルショットシークエンシングスタイルを学習するためのコンテンツ検索モジュールとテンポラルコヒーレントモジュールを提案する。
高速な推論のために,リアルタイムビデオクリップシークエンシングのための効率的な検索手法を提案する。
論文 参考訳(メタデータ) (2021-07-25T17:24:50Z) - Condensed Movies: Story Based Retrieval with Contextual Embeddings [83.73479493450009]
我々は3K映画の主要シーンからなるコンデンサド映画データセット(CMD)を作成する。
データセットはスケーラブルで、YouTubeから自動的に取得され、誰でもダウンロードして利用できる。
我々は、文字、音声、視覚的手がかりを1つのビデオ埋め込みに組み合わせ、データセット上でテキストからビデオまでを検索するためのディープネットワークベースラインを提供する。
論文 参考訳(メタデータ) (2020-05-08T17:55:03Z) - Towards Deep Learning Methods for Quality Assessment of
Computer-Generated Imagery [2.580765958706854]
従来のビデオコンテンツとは対照的に、ゲームコンテンツはいくつかのゲームにおいて非常に高い動きのような特別な特徴を持つ。
本稿では,ゲーム品質評価のためのディープラーニングベースの品質指標を構築する計画について概説する。
論文 参考訳(メタデータ) (2020-05-02T14:08:39Z) - Feature Re-Learning with Data Augmentation for Video Relevance
Prediction [35.87597969685573]
再学習は、アフィン変換によって与えられた深い機能を新しい空間に投影することで実現される。
本稿では,フレームレベルとビデオレベルの機能に直接依存する新たなデータ拡張戦略を提案する。
論文 参考訳(メタデータ) (2020-04-08T05:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。