論文の概要: More Skin, More Likes! Measuring Child Exposure and User Engagement on TikTok
- arxiv url: http://arxiv.org/abs/2408.05622v2
- Date: Tue, 1 Oct 2024 15:12:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-08 11:49:24.953631
- Title: More Skin, More Likes! Measuring Child Exposure and User Engagement on TikTok
- Title(参考訳): TikTok上での児童被曝とユーザエンゲージメントの測定
- Authors: Miriam Schirmer, Angelina Voggenreiter, Jürgen Pfeffer,
- Abstract要約: 子どものTikTok曝露に関する研究
子どもをフィーチャーした115のユーザーアカウントから5,896本のビデオに対する432,178件のコメントを分析した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sharenting, the practice of parents sharing content about their children on social media platforms, has become increasingly common, raising concerns about children's privacy and safety online. This study investigates children's exposure on TikTok, offering a detailed examination of the platform's content and associated comments. Analyzing 432,178 comments across 5,896 videos from 115 user accounts featuring children, we categorize content into Family, Fashion, and Sports. Our analysis highlights potential risks, such as inappropriate comments or contact offers, with a focus on appearance-based comments. Notably, 21% of comments relate to visual appearance. Additionally, 19.57% of videos depict children in revealing clothing, such as swimwear or bare midriffs, attracting significantly more appearance-based comments and likes than videos featuring fully clothed children, although this trend does not extend to downloads. These findings underscore the need for heightened awareness and protective measures to safeguard children's privacy and well-being in the digital age.
- Abstract(参考訳): 子どもに関するコンテンツをソーシャルメディア上で共有するSharentingは、ますます一般的になってきており、子どものプライバシーと安全をネット上で懸念する声が上がっている。
本研究では,TikTok上での子どもの露出を調査し,プラットフォームの内容と関連するコメントについて詳細に検討する。
子ども115人のユーザーアカウントから5,896本のビデオで432,178件のコメントを分析し、コンテンツをファミリー、ファッション、スポーツに分類した。
私たちの分析では、不適切なコメントやコンタクトオファーといった潜在的なリスクを強調し、外見に基づくコメントに焦点を当てています。
特に21%のコメントが視覚的外観に関連している。
さらに、19.57%の動画は、水着や裸のミドルリフのような衣服を露出する子供たちを描いており、完全な服を着た子供たちをフィーチャーしたビデオよりも、外見に基づくコメントや、はるかに多くのコメントを惹きつけているが、この傾向はダウンロードには及ばない。
これらの知見は,デジタル時代の子どものプライバシーと幸福を守るための意識と保護の強化の必要性を浮き彫りにした。
関連論文リスト
- HOTVCOM: Generating Buzzworthy Comments for Videos [49.39846630199698]
この研究は、中国最大のビデオコンテンツデータセットであるtextscHotVComを紹介し、94万の多様なビデオと1億1700万のコメントからなる。
また、中国語のビデオデータセット上で、視覚的、聴覚的、テキスト的データを相乗的に統合し、影響力のあるホットコンテンツを生成するtexttComHeatフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-23T16:45:13Z) - Security Advice for Parents and Children About Content Filtering and
Circumvention as Found on YouTube and TikTok [2.743215038883957]
YouTubeやTikTokで見られるように、コンテンツフィルタリングと回避に関する両親や子供たちのアドバイスを検討する。
その結果、これらのビデオのうち、約4分の3は正確であり、残りの4分の1は事実的不正確なアドバイスを含んでいることがわかった。
子どもを対象とするビデオは、両親を対象とするビデオよりも、誤動作しやすく、有害な行動をとるリスクが高まる傾向にある。
論文 参考訳(メタデータ) (2024-02-05T18:12:33Z) - ViCo: Engaging Video Comment Generation with Human Preference Rewards [68.50351391812723]
ビデオコメント生成の課題に対処するために,3つの新しいデザインのViCoを提案する。
コメントのエンゲージメントを定量化するために、各コメントが受け取る「いいね!
コメントのエンゲージメントを自動的に評価するために、我々は報酬モデルをトレーニングし、その判断を上記のプロキシに合わせる。
論文 参考訳(メタデータ) (2023-08-22T04:01:01Z) - An Image is Worth a Thousand Toxic Words: A Metamorphic Testing
Framework for Content Moderation Software [64.367830425115]
ソーシャルメディアプラットフォームは、ヘイトスピーチ、悪意のある広告、ポルノなど、有害なコンテンツを拡散するためにますます悪用されている。
コンテンツモデレーション手法の開発と展開に多大な努力を払っているにもかかわらず、悪意のあるユーザは、テキストを画像に埋め込むことでモデレーションを回避することができる。
コンテンツモデレーションソフトウェアのためのメタモルフィックテストフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-18T20:33:06Z) - Malicious or Benign? Towards Effective Content Moderation for Children's
Videos [1.0323063834827415]
本稿では,児童ビデオの自動コンテンツモデレーションに関する研究を促進するためのツールキットであるMalicious or Benignを紹介する。
1)ビデオのカスタマイズ可能なアノテーションツール,2)悪意のあるコンテンツのテストケースを検出するのが難しい新しいデータセット,3)最先端のビデオ分類モデルのベンチマークスイートを提案する。
論文 参考訳(メタデータ) (2023-05-24T20:33:38Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - Did your child get disturbed by an inappropriate advertisement on
YouTube? [3.2113789596629503]
幼児に適した24.6Kの多様なYouTubeビデオの広告パターンを分析した。
この24.6Kビデオに示されている4.6Kのユニークな広告の9.9%は、幼児向けの不適切なコンテンツを含んでいる。
論文 参考訳(メタデータ) (2022-11-04T10:28:54Z) - How Would The Viewer Feel? Estimating Wellbeing From Video Scenarios [73.24092762346095]
情緒応答と主観的幸福感に注釈を付けた6万本以上のビデオを備えた大規模データセットを2つ導入した。
Video Cognitive Empathyデータセットには、微粒な感情応答の分布のためのアノテーションが含まれており、モデルが感情状態の詳細な理解を得ることができる。
Video to Valenceデータセットには、ビデオ間の相対的な快適性のアノテーションが含まれている。
論文 参考訳(メタデータ) (2022-10-18T17:58:25Z) - YouTubers Not madeForKids: Detecting Channels Sharing Inappropriate
Videos Targeting Children [3.936965297430477]
われわれは、過去に子供をターゲットにした適切な、あるいは乱暴なビデオを投稿したYouTubeチャンネルを調査した。
YouTubeの想定するコンテンツとフラグが不適切なコンテンツとチャネルであることと、コンテンツが混乱し、まだプラットフォーム上で利用できないこととを明確に区別する。
論文 参考訳(メタデータ) (2022-05-27T10:34:15Z) - Hate, Obscenity, and Insults: Measuring the Exposure of Children to
Inappropriate Comments in YouTube [8.688428251722911]
本稿では,若年層を対象にしたyoutubeビデオに投稿された不適切なコメントに対する若者の露出を調査した。
約400万レコードの大規模データセットを収集し,年齢不適切な5つのカテゴリの存在と各カテゴリへの露出量を調査した。
自然言語処理と機械学習技術を用いて,不適切なコメントの検出を高精度に行うアンサンブル分類器を構築した。
論文 参考訳(メタデータ) (2021-03-03T20:15:22Z) - Mi YouTube es Su YouTube? Analyzing the Cultures using YouTube
Thumbnails of Popular Videos [98.87558262467257]
本研究では,YouTubeのトレンド動画のサムネイルを用いて,各国の文化選好について検討した。
実験の結果、類似文化のユーザーはYouTubeで同様のビデオを見ることに興味を持っていることがわかった。
論文 参考訳(メタデータ) (2020-01-27T20:15:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。