論文の概要: MetaHarm: Harmful YouTube Video Dataset Annotated by Domain Experts, GPT-4-Turbo, and Crowdworkers
- arxiv url: http://arxiv.org/abs/2504.16304v1
- Date: Tue, 22 Apr 2025 22:45:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:52.953269
- Title: MetaHarm: Harmful YouTube Video Dataset Annotated by Domain Experts, GPT-4-Turbo, and Crowdworkers
- Title(参考訳): MetaHarm: ドメインエキスパート、GPT-4-Turbo、そしてクラウドワーカーが注釈を付けたYouTubeビデオデータセット
- Authors: Wonjeong Jo, Magdalena Wojcieszak,
- Abstract要約: YouTube、Instagram、TikTokなどの短いビデオプラットフォームは、ユーザーに有害なコンテンツを公開する。
マルチモーダルとマルチカテゴリのオンラインハーネスの大規模データセットを2つ提示する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Short video platforms, such as YouTube, Instagram, or TikTok, are used by billions of users. These platforms expose users to harmful content, ranging from clickbait or physical harms to hate or misinformation. Yet, we lack a comprehensive understanding and measurement of online harm on short video platforms. Toward this end, we present two large-scale datasets of multi-modal and multi-categorical online harm: (1) 60,906 systematically selected potentially harmful YouTube videos and (2) 19,422 videos annotated by three labeling actors: trained domain experts, GPT-4-Turbo (using 14 image frames, 1 thumbnail, and text metadata), and crowdworkers (Amazon Mechanical Turk master workers). The annotated dataset includes both (a) binary classification (harmful vs. harmless) and (b) multi-label categorizations of six harm categories: Information, Hate and harassment, Addictive, Clickbait, Sexual, and Physical harms. Furthermore, the annotated dataset provides (1) ground truth data with videos annotated consistently across (a) all three actors and (b) the majority of the labeling actors, and (2) three data subsets labeled by individual actors. These datasets are expected to facilitate future work on online harm, aid in (multi-modal) classification efforts, and advance the identification and potential mitigation of harmful content on video platforms.
- Abstract(参考訳): YouTube、Instagram、TikTokなどの短いビデオプラットフォームは何十億ものユーザーが使っている。
これらのプラットフォームは、クリックベイトや身体的害から憎悪や誤報まで、有害なコンテンツにユーザーをさらけ出す。
しかし、短いビデオプラットフォーム上でのオンライン被害の包括的理解と測定は欠如している。
この目的のために,(1)60,906は組織的に潜在的に有害なYouTubeビデオを選択し,(2)19,422はトレーニング済みのドメインエキスパート,(2)GPT-4-Turbo(14の画像フレーム,1サムネイル,テキストメタデータ),そしてクラウドワーカー(Amazon Mechanical Turkマスターワーカー)によって注釈付けされた。
アノテーション付きデータセットは両方を含む
(a)二項分類(有害対無害)、
b)情報・憎悪・ハラスメント・予測・クリックベイト・セクシャル・身体的危害の6つのカテゴリーの多ラベル分類
さらに、アノテーション付きデータセットは、(1)一貫したアノテーション付きビデオによる地上真実データを提供する。
(a)三人とも
b) ラベル付けアクターの大多数,(2) 個々のアクターによってラベル付けされた3つのデータサブセット。
これらのデータセットは、今後のオンライン害への取り組みを促進し、(マルチモーダル)分類の取り組みを支援し、ビデオプラットフォーム上で有害なコンテンツの識別と潜在的な緩和を促進することが期待されている。
関連論文リスト
- Simple Visual Artifact Detection in Sora-Generated Videos [9.991747596111011]
本研究では,Sora生成ビデオで頻繁に発見・報告される視覚的アーティファクトについて検討する。
4種類の共通アーティファクトラベルを対象とするマルチラベル分類フレームワークを提案する。
ResNet-50で訓練された最高の性能モデルは、平均的なマルチラベル分類精度94.14%を達成した。
論文 参考訳(メタデータ) (2025-04-30T05:41:43Z) - Harmful YouTube Video Detection: A Taxonomy of Online Harm and MLLMs as Alternative Annotators [0.0]
本研究は,映像コンテンツ中の害を検知するための計測方法と手法の進歩である。
我々は、ビデオプラットフォーム上でのオンライン被害に対する包括的分類を開発し、それを情報、憎悪、ハラスメント、予測、クリックベイト、性的被害、身体的被害の6つのカテゴリに分類する。
14枚の画像フレーム,1本のサムネイル,テキストメタデータを用いて,19,422本のYouTube動画を分析し,クラウドワーカー(Mturk)とGPT-4-Turboの精度を比較した。
論文 参考訳(メタデータ) (2024-11-06T23:48:30Z) - MultiHateClip: A Multilingual Benchmark Dataset for Hateful Video Detection on YouTube and Bilibili [11.049937698021054]
本研究は,ヘイトレキシコンと人間のアノテーションによって作成された,新しい多言語データセットであるMultiHateClipを提案する。
英語と中国語の両方のコンテンツを含む、YouTubeやBilibiliなどのプラットフォーム上でのヘイトフルなビデオの検出を強化することを目的としている。
論文 参考訳(メタデータ) (2024-07-28T08:19:09Z) - Into the LAIONs Den: Investigating Hate in Multimodal Datasets [67.21783778038645]
本稿では、LAION-400MとLAION-2Bの2つのデータセットの比較監査を通して、ヘイトフルコンテンツに対するデータセットのスケーリングの効果について検討する。
その結果、データセットのスケールによってヘイトコンテンツは12%近く増加し、質的にも定量的にも測定された。
また、画像のみに基づいて算出されたNot Safe For Work(NSFW)値に基づくデータセットの内容のフィルタリングは、アルトテキストにおける有害なコンテンツをすべて排除するものではないことがわかった。
論文 参考訳(メタデータ) (2023-11-06T19:00:05Z) - Micro-video Tagging via Jointly Modeling Social Influence and Tag
Relation [56.23157334014773]
85.7%のマイクロビデオにはアノテーションがない。
既存の手法は、主にビデオコンテンツの分析、ユーザの社会的影響やタグ関係を無視することに焦点を当てている。
構築したヘテロジニアスネットワークにおけるリンク予測問題として,マイクロビデオタギングを定式化する。
論文 参考訳(メタデータ) (2023-03-15T02:13:34Z) - Video Manipulations Beyond Faces: A Dataset with Human-Machine Analysis [60.13902294276283]
我々は826の動画(413のリアルと413の操作)からなるデータセットであるVideoShamを提示する。
既存のディープフェイクデータセットの多くは、2種類の顔操作にのみ焦点をあてている。
我々の分析によると、最先端の操作検出アルゴリズムはいくつかの特定の攻撃に対してのみ有効であり、VideoShamではうまくスケールしない。
論文 参考訳(メタデータ) (2022-07-26T17:39:04Z) - DisinfoMeme: A Multimodal Dataset for Detecting Meme Intentionally
Spreading Out Disinformation [72.18912216025029]
偽情報ミームの検出を支援するためにDisinfoMemeを提案する。
このデータセットには、COVID-19パンデミック、Black Lives Matter運動、ベジタリアン/ベジタリアンという3つのトピックをカバーするRedditのミームが含まれている。
論文 参考訳(メタデータ) (2022-05-25T09:54:59Z) - TeamX@DravidianLangTech-ACL2022: A Comparative Analysis for Troll-Based
Meme Classification [21.32190107220764]
ネット上の有害コンテンツは ソーシャルメディアプラットフォーム、政府機関、政策立案者、社会全体の間で 懸念を高めました
有害コンテンツに基づくオンラインコンテンツは、その1つで、挑発的、攻撃的、あるいは威圧的なメッセージを、視聴者を誤解させる意図で投稿する、というものだ。
本研究は,テキスト,ビジュアル,マルチモーダルコンテンツを用いて,トロルに基づくミーム分類の比較分析を行った。
論文 参考訳(メタデータ) (2022-05-09T16:19:28Z) - Detecting Harmful Content On Online Platforms: What Platforms Need Vs.
Where Research Efforts Go [44.774035806004214]
オンラインプラットフォーム上の有害コンテンツには、ヘイトスピーチ、攻撃的言語、いじめとハラスメント、誤情報、スパム、暴力、グラフィックコンテンツ、性的虐待、自己被害など、さまざまな形態がある。
オンラインプラットフォームは、そのようなコンテンツを、社会的危害を抑えるため、法律に従うために、ユーザーのためにより包括的な環境を作るために、緩和しようとしている。
現在、オンラインプラットフォームが抑制しようとしている有害なコンテンツの種類と、そのようなコンテンツを自動的に検出する研究努力との間には、隔たりがある。
論文 参考訳(メタデータ) (2021-02-27T08:01:10Z) - Trawling for Trolling: A Dataset [56.1778095945542]
攻撃的コンテンツのサブカテゴリとしてトロリングをモデル化するデータセットを提案する。
データセットには12,490のサンプルがあり、5つのクラスに分かれている。
論文 参考訳(メタデータ) (2020-08-02T17:23:55Z) - Transfer Learning for Hate Speech Detection in Social Media [14.759208309842178]
本稿では、2つの独立したデータセットを協調的に活用するために転送学習手法を用いる。
我々は、構築されたヘイトスピーチ表現の解釈可能な2次元可視化ツールを構築します。
この共同表現は,限られた監督範囲の場合にのみ予測性能が向上することを示す。
論文 参考訳(メタデータ) (2019-06-10T08:00:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。