論文の概要: Deep Architectures for Content Moderation and Movie Content Rating
- arxiv url: http://arxiv.org/abs/2212.04533v1
- Date: Thu, 8 Dec 2022 19:50:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 14:26:32.436233
- Title: Deep Architectures for Content Moderation and Movie Content Rating
- Title(参考訳): コンテンツモデレーションと映画コンテンツ評価のための深層アーキテクチャ
- Authors: Fatih Cagatay Akyon, Alptekin Temizel
- Abstract要約: 映画コンテンツの格付けとテレビ番組の格付けは、専門委員会によって確立された2つの最も一般的な格付けシステムである。
コンピュータビジョンに基づく映像コンテンツ分析技術を用いて評価プロセスを自動化することが望ましい方法である。
本稿では,アクション認識,マルチモーダル学習,映画ジャンル分類,センシティブコンテンツ検出に関する関連研究を要約する。
- 参考スコア(独自算出の注目度): 3.04585143845864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rating a video based on its content is an important step for classifying
video age categories. Movie content rating and TV show rating are the two most
common rating systems established by professional committees. However, manually
reviewing and evaluating scene/film content by a committee is a tedious work
and it becomes increasingly difficult with the ever-growing amount of online
video content. As such, a desirable solution is to use computer vision based
video content analysis techniques to automate the evaluation process. In this
paper, related works are summarized for action recognition, multi-modal
learning, movie genre classification, and sensitive content detection in the
context of content moderation and movie content rating. The project page is
available at https://github.com/fcakyon/content-moderation-deep-learning}.
- Abstract(参考訳): コンテンツに基づくビデオの評価は、ビデオ年齢カテゴリーを分類するための重要なステップである。
映画コンテンツレーティングとテレビ番組レーティングは、専門家委員会が設立した2つの最も一般的なレーティングシステムである。
しかし、委員会によるシーン・フィルムコンテンツの手作業によるレビュー・評価は面倒な作業であり、オンラインビデオコンテンツの増大がますます困難になっている。
そのため、コンピュータビジョンに基づく映像コンテンツ分析技術を用いて評価プロセスを自動化することが望ましい。
本稿では,アクション認識,マルチモーダル学習,映画ジャンル分類,コンテンツモデレーションと映画コンテンツ評価の文脈におけるセンシティブなコンテンツ検出について要約する。
プロジェクトページはhttps://github.com/fcakyon/content-moderation-deep-learning}で入手できる。
関連論文リスト
- Advancing Content Moderation: Evaluating Large Language Models for Detecting Sensitive Content Across Text, Images, and Videos [0.1399948157377307]
政府、教育者、そして親はしばしば、そのようなコンテンツの拡散を規制し、制御し、制限する方法についてメディアプラットフォームと対立している。
自然言語処理やコンピュータビジョンといった技術は、センシティブなコンテンツを自動的に識別し、フィルタリングするために広く使われている。
テキストと画像の両方のコンテキストを理解するためのより洗練されたアルゴリズムは、コンテンツ検閲の改善のための部屋を開くかもしれない。
論文 参考訳(メタデータ) (2024-11-26T05:29:18Z) - EgoCVR: An Egocentric Benchmark for Fine-Grained Composed Video Retrieval [52.375143786641196]
EgoCVRは、きめ細かいComposted Video Retrievalの評価ベンチマークである。
EgoCVRは2,295のクエリで構成され、高品質な時間的ビデオ理解に特化している。
論文 参考訳(メタデータ) (2024-07-23T17:19:23Z) - VCEval: Rethinking What is a Good Educational Video and How to Automatically Evaluate It [46.67441830344145]
本稿では,映像コンテンツの品質を自動評価する作業に焦点をあてる。
これらの原則に基づいて,3つの評価原則を提案し,新しい評価フレームワークであるtextitVCEval を設計する。
本手法は,コンテンツ品質の異なるビデオコースを効果的に識別し,様々な解釈可能な結果を生成する。
論文 参考訳(メタデータ) (2024-06-15T13:18:30Z) - Improving Video Corpus Moment Retrieval with Partial Relevance Enhancement [72.7576395034068]
Video Corpus Moment Retrieval(VCMR)は、テキストクエリを使って、大量の未トリミングビデオから関連する瞬間を検索するための、新しいビデオ検索タスクである。
我々は、VCMRタスクにおいて、クエリとビデオの間の部分的関係を効果的に捉えることが不可欠であると主張している。
ビデオ検索には,2つのモーダルに対して異なる問合せ表現を生成するマルチモーダル・コラボレーティブ・ビデオレトリバーを導入する。
そこで本研究では,モータリティ特異的なゲートを用いたモーメントローカライザを提案する。
論文 参考訳(メタデータ) (2024-02-21T07:16:06Z) - The Potential of Vision-Language Models for Content Moderation of
Children's Videos [1.0589208420411014]
本稿では、文脈固有の言語がコンテンツモデレーション性能にどのように影響するかを詳細に分析する。
コンテンツモデレーションのプロンプトにもっとコンテキストを含めることが重要です。
論文 参考訳(メタデータ) (2023-12-06T22:29:16Z) - Extraction and Summarization of Explicit Video Content using Multi-Modal
Deep Learning [0.0]
本稿では,マルチモーダル深層学習を用いて,まず入力ビデオの明示的なセグメントを抽出し,テキストを用いてコンテンツを要約し,その年齢と年齢を判定するパイプラインを提案する。
また、標準メトリクスを使用して、最後にパイプラインの有効性を評価します。
論文 参考訳(メタデータ) (2023-11-17T22:44:05Z) - TL;DW? Summarizing Instructional Videos with Task Relevance &
Cross-Modal Saliency [133.75876535332003]
我々は,ビデオ要約の未探索領域である指導ビデオの要約に焦点をあてる。
既存のビデオ要約データセットは、手動のフレームレベルのアノテーションに依存している。
本稿では,文脈対応の時間的ビデオエンコーダとセグメントスコアリング変換器を組み合わせた指導ビデオ要約ネットワークを提案する。
論文 参考訳(メタデータ) (2022-08-14T04:07:40Z) - VPN: Video Provenance Network for Robust Content Attribution [72.12494245048504]
VPN - オンラインで共有されているビデオから出典情報を復元するコンテンツ属性手法を提案する。
完全長あるいは切り離されたビデオクエリを用いて,このようなビデオのマッチングに頑健な検索埋め込みを学習する。
一度ビデオクリップの信頼できるデータベースにマッチすると、そのクリップの出所に関する関連情報がユーザに提示される。
論文 参考訳(メタデータ) (2021-09-21T09:07:05Z) - Condensed Movies: Story Based Retrieval with Contextual Embeddings [83.73479493450009]
我々は3K映画の主要シーンからなるコンデンサド映画データセット(CMD)を作成する。
データセットはスケーラブルで、YouTubeから自動的に取得され、誰でもダウンロードして利用できる。
我々は、文字、音声、視覚的手がかりを1つのビデオ埋め込みに組み合わせ、データセット上でテキストからビデオまでを検索するためのディープネットワークベースラインを提供する。
論文 参考訳(メタデータ) (2020-05-08T17:55:03Z) - Feature Re-Learning with Data Augmentation for Video Relevance
Prediction [35.87597969685573]
再学習は、アフィン変換によって与えられた深い機能を新しい空間に投影することで実現される。
本稿では,フレームレベルとビデオレベルの機能に直接依存する新たなデータ拡張戦略を提案する。
論文 参考訳(メタデータ) (2020-04-08T05:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。