論文の概要: Malicious or Benign? Towards Effective Content Moderation for Children's
Videos
- arxiv url: http://arxiv.org/abs/2305.15551v1
- Date: Wed, 24 May 2023 20:33:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 18:40:24.062410
- Title: Malicious or Benign? Towards Effective Content Moderation for Children's
Videos
- Title(参考訳): 悪質か 良質か?
児童ビデオの効果的なコンテンツモデレーションに向けて
- Authors: Syed Hammad Ahmed, Muhammad Junaid Khan, H. M. Umer Qaisar and Gita
Sukthankar
- Abstract要約: 本稿では,児童ビデオの自動コンテンツモデレーションに関する研究を促進するためのツールキットであるMalicious or Benignを紹介する。
1)ビデオのカスタマイズ可能なアノテーションツール,2)悪意のあるコンテンツのテストケースを検出するのが難しい新しいデータセット,3)最先端のビデオ分類モデルのベンチマークスイートを提案する。
- 参考スコア(独自算出の注目度): 1.0323063834827415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online video platforms receive hundreds of hours of uploads every minute,
making manual content moderation impossible. Unfortunately, the most vulnerable
consumers of malicious video content are children from ages 1-5 whose attention
is easily captured by bursts of color and sound. Scammers attempting to
monetize their content may craft malicious children's videos that are
superficially similar to educational videos, but include scary and disgusting
characters, violent motions, loud music, and disturbing noises. Prominent video
hosting platforms like YouTube have taken measures to mitigate malicious
content on their platform, but these videos often go undetected by current
content moderation tools that are focused on removing pornographic or
copyrighted content. This paper introduces our toolkit Malicious or Benign for
promoting research on automated content moderation of children's videos. We
present 1) a customizable annotation tool for videos, 2) a new dataset with
difficult to detect test cases of malicious content and 3) a benchmark suite of
state-of-the-art video classification models.
- Abstract(参考訳): オンラインビデオプラットフォームは毎分何百時間ものアップロードを受け取り、手動によるコンテンツのモデレーションを不可能にする。
残念なことに、悪意のあるビデオコンテンツの最も脆弱な消費者は、1歳から5歳までの子供たちだ。
コンテンツを収益化しようとするスカマーは、表面的には教育ビデオに似ている悪質な子供のビデオを制作するが、怖い、嫌悪なキャラクター、暴力的な動き、大きな音楽、騒々しい騒音を含む。
YouTubeのような著名なビデオホスティングプラットフォームは、悪質なコンテンツをそのプラットフォーム上で緩和する対策を講じているが、ポルノや著作権のあるコンテンツを削除することに焦点を当てた現在のコンテンツモデレーションツールによって、これらのビデオは検出されないことが多い。
本稿では,児童ビデオの自動コンテンツモデレーションに関する研究を促進するためのツールキットであるMalicious or Benignを紹介する。
ご紹介します
1)ビデオ用のカスタマイズ可能なアノテーションツール。
2)悪意のあるコンテンツのテストケースを検出するのが難しい新しいデータセット
3)最先端のビデオ分類モデルのベンチマークスイート。
関連論文リスト
- Towards Understanding Unsafe Video Generation [10.269782780518428]
ビデオ生成モデル(VGM)は高品質な出力を合成する能力を実証している。
安全でないビデオカテゴリーは、Distorted/Weird, Terrifying, Pornographic, Violent/Bloody, Politicalの5つです。
次に、安全でないビデオの発生を防ぐための防御機構について検討する。
論文 参考訳(メタデータ) (2024-07-17T14:07:22Z) - Enhanced Multimodal Content Moderation of Children's Videos using Audiovisual Fusion [0.6963971634605796]
コンテントモデレーションの強化にコンテキストオーディオキューを活用するCLIPの効率的な適応を提案する。
我々はMOB(Malicious or Benign)データセットのマルチモーダルバージョンを教師付きおよび少数ショット設定で実験する。
論文 参考訳(メタデータ) (2024-05-09T22:19:40Z) - An Image is Worth a Thousand Toxic Words: A Metamorphic Testing
Framework for Content Moderation Software [64.367830425115]
ソーシャルメディアプラットフォームは、ヘイトスピーチ、悪意のある広告、ポルノなど、有害なコンテンツを拡散するためにますます悪用されている。
コンテンツモデレーション手法の開発と展開に多大な努力を払っているにもかかわらず、悪意のあるユーザは、テキストを画像に埋め込むことでモデレーションを回避することができる。
コンテンツモデレーションソフトウェアのためのメタモルフィックテストフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-18T20:33:06Z) - Fighting Malicious Media Data: A Survey on Tampering Detection and
Deepfake Detection [115.83992775004043]
近年のディープラーニング、特に深層生成モデルの発展により、知覚的に説得力のある画像や動画を低コストで制作するための扉が開かれた。
本稿では,現在のメディアタンパリング検出手法を概観し,今後の研究の課題と動向について論じる。
論文 参考訳(メタデータ) (2022-12-12T02:54:08Z) - YouTubers Not madeForKids: Detecting Channels Sharing Inappropriate
Videos Targeting Children [3.936965297430477]
われわれは、過去に子供をターゲットにした適切な、あるいは乱暴なビデオを投稿したYouTubeチャンネルを調査した。
YouTubeの想定するコンテンツとフラグが不適切なコンテンツとチャネルであることと、コンテンツが混乱し、まだプラットフォーム上で利用できないこととを明確に区別する。
論文 参考訳(メタデータ) (2022-05-27T10:34:15Z) - Subjective and Objective Analysis of Streamed Gaming Videos [60.32100758447269]
ゲームビデオにおける主観的および客観的ビデオ品質評価(VQA)モデルについて検討する。
LIVE-YouTube Gaming Video Quality (LIVE-YT-Gaming) と呼ばれる新しいゲームビデオリソースを作成しました。
このデータについて主観的人間調査を行い,61名の被験者が記録した品質評価18,600名を得た。
論文 参考訳(メタデータ) (2022-03-24T03:02:57Z) - 'Beach' to 'Bitch': Inadvertent Unsafe Transcription of Kids' Content on
YouTube [13.116806430326513]
有名な自動音声認識(ASR)システムは、YouTube Kidsのビデオの書き起こしをしながら、子供にとって非常に不適切なテキストコンテンツを生成できる。
我々は、既存の最先端のASRシステムが子供に不適切なコンテンツを幻覚させるような、第一級のオーディオデータセットをリリースする。
論文 参考訳(メタデータ) (2022-02-17T19:19:09Z) - VPN: Video Provenance Network for Robust Content Attribution [72.12494245048504]
VPN - オンラインで共有されているビデオから出典情報を復元するコンテンツ属性手法を提案する。
完全長あるいは切り離されたビデオクエリを用いて,このようなビデオのマッチングに頑健な検索埋め込みを学習する。
一度ビデオクリップの信頼できるデータベースにマッチすると、そのクリップの出所に関する関連情報がユーザに提示される。
論文 参考訳(メタデータ) (2021-09-21T09:07:05Z) - Characterizing Abhorrent, Misinformative, and Mistargeted Content on
YouTube [1.9138099871648453]
本稿では,YouTube上の問題コンテンツの度合いと,そのようなコンテンツの拡散における推奨アルゴリズムの役割について検討する。
分析の結果,幼児はランダムにプラットフォームを閲覧すると乱雑なコンテンツに遭遇する可能性が示唆された。
インセルの活動は時間とともに増加しており、プラットフォームはユーザーを極端なコンテンツへと導く上で積極的な役割を果たす可能性がある。
論文 参考訳(メタデータ) (2021-05-20T15:10:48Z) - Efficient video integrity analysis through container characterization [77.45740041478743]
本稿では,ビデオ操作に使用するソフトウェアをコンテナベースで識別する手法を提案する。
提案手法は効率的かつ効果的であり,その決定の簡易な説明も可能である。
プリストインを改ざんされたビデオと区別し、編集ソフトを分類することで97.6%の精度を達成している。
論文 参考訳(メタデータ) (2021-01-26T14:13:39Z) - Mi YouTube es Su YouTube? Analyzing the Cultures using YouTube
Thumbnails of Popular Videos [98.87558262467257]
本研究では,YouTubeのトレンド動画のサムネイルを用いて,各国の文化選好について検討した。
実験の結果、類似文化のユーザーはYouTubeで同様のビデオを見ることに興味を持っていることがわかった。
論文 参考訳(メタデータ) (2020-01-27T20:15:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。