論文の概要: Protecting Young Users on Social Media: Evaluating the Effectiveness of Content Moderation and Legal Safeguards on Video Sharing Platforms
- arxiv url: http://arxiv.org/abs/2505.11160v1
- Date: Fri, 16 May 2025 12:06:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:14.873911
- Title: Protecting Young Users on Social Media: Evaluating the Effectiveness of Content Moderation and Legal Safeguards on Video Sharing Platforms
- Title(参考訳): ソーシャルメディア上の若者の保護 : コンテンツモデレーションと法的保護がビデオ共有プラットフォームに及ぼす影響評価
- Authors: Fatmaelzahraa Eltaher, Rahul Krishna Gajula, Luis Miralles-Pechuán, Patrick Crotty, Juan Martínez-Otero, Christina Thorpe, Susan McKeever,
- Abstract要約: 我々は,TikTok,YouTube,Instagramの年齢層別ビデオモデレーションの有効性を評価した。
受動的スクロールでは、13歳グループに割り当てられたアカウントは、18歳グループに割り当てられたアカウントよりも、より頻繁に迅速に有害とされるビデオに遭遇した。
露光は、アルゴリズムフィルタリングシステムの弱点を示す、ユーザー主導の検索なしで発生した。
- 参考スコア(独自算出の注目度): 0.8198234257428011
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video-sharing social media platforms, such as TikTok, YouTube, and Instagram, implement content moderation policies aimed at reducing exposure to harmful videos among minor users. As video has become the dominant and most immersive form of online content, understanding how effectively this medium is moderated for younger audiences is urgent. In this study, we evaluated the effectiveness of video moderation for different age groups on three of the main video-sharing platforms: TikTok, YouTube, and Instagram. We created experimental accounts for the children assigned ages 13 and 18. Using these accounts, we evaluated 3,000 videos served up by the social media platforms, in passive scrolling and search modes, recording the frequency and speed at which harmful videos were encountered. Each video was manually assessed for level and type of harm, using definitions from a unified framework of harmful content. The results show that for passive scrolling or search-based scrolling, accounts assigned to the age 13 group encountered videos that were deemed harmful, more frequently and quickly than those assigned to the age 18 group. On YouTube, 15\% of recommended videos to 13-year-old accounts during passive scrolling were assessed as harmful, compared to 8.17\% for 18-year-old accounts. On YouTube, videos labelled as harmful appeared within an average of 3:06 minutes of passive scrolling for the younger age group. Exposure occurred without user-initiated searches, indicating weaknesses in the algorithmic filtering systems. These findings point to significant gaps in current video moderation practices by social media platforms. Furthermore, the ease with which underage users can misrepresent their age demonstrates the urgent need for more robust verification methods.
- Abstract(参考訳): TikTok、YouTube、Instagramなどのビデオ共有ソーシャルメディアプラットフォームは、マイナーユーザーの間で有害なビデオへの露出を減らすことを目的としたコンテンツモデレーションポリシーを実装している。
ビデオがオンラインコンテンツの支配的かつ最も没入的な形態になっているため、若年層にとってこの媒体がいかに効果的に活用されるかを理解することが急務である。
本研究では,TikTok,YouTube,Instagramの3つのビデオ共有プラットフォームにおいて,異なる年齢層を対象とした動画モデレーションの有効性を評価した。
対象は13歳,18歳児である。
これらのアカウントを用いて、ソーシャルメディアプラットフォームで提供される3,000本の動画を、受動的スクロールと検索モードで評価し、有害なビデオが遭遇した頻度と速度を記録した。
各ビデオは、有害なコンテンツの統一されたフレームワークの定義を使用して、レベルとタイプの害について手動で評価された。
その結果、受動的スクロールや検索に基づくスクロールでは、13歳層に割り当てられたアカウントは、18歳層群よりも有害で、より頻度が高く、かつ迅速にビデオに遭遇した。
YouTubeでは、受動スクロール中の13歳のアカウントに推奨されるビデオの15\%が有害であると評価され、18歳のアカウントは8.17\%だった。
YouTubeでは、若年層に対する受動的スクロールの平均3:06分以内に有害とラベル付けされたビデオが出現した。
露光は、アルゴリズムフィルタリングシステムの弱点を示す、ユーザー主導の検索なしで発生した。
これらの結果は、ソーシャルメディアプラットフォームによる現在のビデオモデレーションの実践において、大きなギャップがあることを示唆している。
さらに、未成年者が年齢を誤って表現できる容易さは、より堅牢な検証方法の必要性を緊急に示している。
関連論文リスト
- Harmful YouTube Video Detection: A Taxonomy of Online Harm and MLLMs as Alternative Annotators [0.0]
本研究は,映像コンテンツ中の害を検知するための計測方法と手法の進歩である。
我々は、ビデオプラットフォーム上でのオンライン被害に対する包括的分類を開発し、それを情報、憎悪、ハラスメント、予測、クリックベイト、性的被害、身体的被害の6つのカテゴリに分類する。
14枚の画像フレーム,1本のサムネイル,テキストメタデータを用いて,19,422本のYouTube動画を分析し,クラウドワーカー(Mturk)とGPT-4-Turboの精度を比較した。
論文 参考訳(メタデータ) (2024-11-06T23:48:30Z) - Beyond Raw Videos: Understanding Edited Videos with Large Multimodal Model [62.38322742493649]
我々は、編集カテゴリ、すなわちエフェクト、面白い、ミーム、ゲームをカバーするビデオVQAベンチマークを構築した。
オープンソースビデオのLMMのほとんどはベンチマークでは不十分であり、ソーシャルメディア上の編集されたショートビデオと通常の生ビデオの間に大きなドメインギャップがあることを示唆している。
LMMの一般化能力を向上させるため,Panda-70M/WebVid生ビデオとTikTok/CapCut編集ビデオの両方に基づいて,提案したベンチマークのトレーニングセットを収集した。
論文 参考訳(メタデータ) (2024-06-15T03:28:52Z) - How to Train Your YouTube Recommender to Avoid Unwanted Videos [51.6864681332515]
興味がない」ボタンと「推奨しないチャンネル」ボタンは、ユーザーが望ましくないリコメンデーションを提示すると、不関心を示すことができる。
われわれはYouTubeユーザーをソックパペットエージェントでシミュレートした。
ボタンが一番うまく機能し、テスト対象のトピックすべてにおいて、このような推奨が大幅に減りました。
論文 参考訳(メタデータ) (2023-07-27T00:21:29Z) - Malicious or Benign? Towards Effective Content Moderation for Children's
Videos [1.0323063834827415]
本稿では,児童ビデオの自動コンテンツモデレーションに関する研究を促進するためのツールキットであるMalicious or Benignを紹介する。
1)ビデオのカスタマイズ可能なアノテーションツール,2)悪意のあるコンテンツのテストケースを検出するのが難しい新しいデータセット,3)最先端のビデオ分類モデルのベンチマークスイートを提案する。
論文 参考訳(メタデータ) (2023-05-24T20:33:38Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - YouTubers Not madeForKids: Detecting Channels Sharing Inappropriate
Videos Targeting Children [3.936965297430477]
われわれは、過去に子供をターゲットにした適切な、あるいは乱暴なビデオを投稿したYouTubeチャンネルを調査した。
YouTubeの想定するコンテンツとフラグが不適切なコンテンツとチャネルであることと、コンテンツが混乱し、まだプラットフォーム上で利用できないこととを明確に区別する。
論文 参考訳(メタデータ) (2022-05-27T10:34:15Z) - Attacking Video Recognition Models with Bullet-Screen Comments [79.53159486470858]
本稿では,BSC攻撃による映像認識モデルに対する新たな敵攻撃を提案する。
BSCは一種の意味のあるパッチと見なすことができ、クリーンなビデオに追加しても、ビデオの内容に対する人々の理解に影響を与えたり、人々の疑念を喚起したりしない。
論文 参考訳(メタデータ) (2021-10-29T08:55:50Z) - Characterizing Abhorrent, Misinformative, and Mistargeted Content on
YouTube [1.9138099871648453]
本稿では,YouTube上の問題コンテンツの度合いと,そのようなコンテンツの拡散における推奨アルゴリズムの役割について検討する。
分析の結果,幼児はランダムにプラットフォームを閲覧すると乱雑なコンテンツに遭遇する可能性が示唆された。
インセルの活動は時間とともに増加しており、プラットフォームはユーザーを極端なコンテンツへと導く上で積極的な役割を果たす可能性がある。
論文 参考訳(メタデータ) (2021-05-20T15:10:48Z) - Hate, Obscenity, and Insults: Measuring the Exposure of Children to
Inappropriate Comments in YouTube [8.688428251722911]
本稿では,若年層を対象にしたyoutubeビデオに投稿された不適切なコメントに対する若者の露出を調査した。
約400万レコードの大規模データセットを収集し,年齢不適切な5つのカテゴリの存在と各カテゴリへの露出量を調査した。
自然言語処理と機械学習技術を用いて,不適切なコメントの検出を高精度に行うアンサンブル分類器を構築した。
論文 参考訳(メタデータ) (2021-03-03T20:15:22Z) - Quantifying the Vulnerabilities of the Online Public Square to Adversarial Manipulation Tactics [43.98568073610101]
ソーシャルメディアモデルを用いて、コンテンツの品質に対するいくつかの敵の操作戦術の影響を定量化する。
ソーシャルメディアの目印である影響力のあるアカウントの存在は、操作するオンラインコミュニティの脆弱性を悪化させる。
これらの知見は、プラットフォームがソーシャルメディアユーザーによる操作のレジリエンスを高めるために使われる可能性があることを示唆している。
論文 参考訳(メタデータ) (2019-07-13T21:12:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。