論文の概要: When Kids Mode Isn't For Kids: Investigating TikTok's "Under 13 Experience"
- arxiv url: http://arxiv.org/abs/2507.00299v1
- Date: Mon, 30 Jun 2025 22:31:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:59.036108
- Title: When Kids Mode Isn't For Kids: Investigating TikTok's "Under 13 Experience"
- Title(参考訳): キッズモードが子供向けでないとき:TikTokの"Under 13 Experience"を調査
- Authors: Olivia Figueira, Pranathi Chamarthi, Tu Le, Athina Markopoulou,
- Abstract要約: ソーシャルメディアプラットフォームであるTikTokは、TikTokの"Kids Mode"としても知られる米国の若者向けに、より限定的な"Under 13 Experience"を提供する。
以前の研究では、TikTokのレギュラーモードの様々な側面を研究してきたが、TikTokのキッズモードはまだ検討されている。
キッズモードの「For You」ページで観察されたビデオの83%は実際には子供向けではなく、不適切なコンテンツさえも発見されている。
- 参考スコア(独自算出の注目度): 3.7436113672723534
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: TikTok, the social media platform that is popular among children and adolescents, offers a more restrictive "Under 13 Experience" exclusively for young users in the US, also known as TikTok's "Kids Mode". While prior research has studied various aspects of TikTok's regular mode, including privacy and personalization, TikTok's Kids Mode remains understudied, and there is a lack of transparency regarding its content curation and its safety and privacy protections for children. In this paper, (i) we propose an auditing methodology to comprehensively investigate TikTok's Kids Mode and (ii) we apply it to characterize the platform's content curation and determine the prevalence of child-directed content, based on regulations in the Children's Online Privacy Protection Act (COPPA). We find that 83% of videos observed on the "For You" page in Kids Mode are actually not child-directed, and even inappropriate content was found. The platform also lacks critical features, namely parental controls and accessibility settings. Our findings have important design and regulatory implications, as children may be incentivized to use TikTok's regular mode instead of Kids Mode, where they are known to be exposed to further safety and privacy risks.
- Abstract(参考訳): 子供や青年の間で人気があるソーシャルメディアプラットフォームであるTikTokは、TikTokの"Kids Mode"としても知られる米国の若者向けに、より限定的な"Under 13 Experience"を提供している。
以前の研究では、プライバシーとパーソナライゼーションを含むTikTokのレギュラーモードのさまざまな側面について研究されてきたが、TikTokのキッズモードはまだ検討されていない。
本項で述べる。
i)TikTokのキッズモードを包括的に調査する監査手法を提案する。
2) 子どものオンラインプライバシー保護法(COPPA)の規制に基づき, プラットフォームによるコンテンツキュレーションを特徴付け, 児童指向コンテンツの普及率を決定する。
キッズモードの「For You」ページで観察されたビデオの83%は実際には子供向けではなく、不適切なコンテンツさえも発見されている。
このプラットフォームには、ペアレンタルコントロールやアクセシビリティ設定といった重要な機能も欠けている。
子どもはキッズモードの代わりにTikTokのレギュラーモードを使うことにインセンティブを与えられ、さらに安全とプライバシーのリスクにさらされることが知られている。
関連論文リスト
- Adultification Bias in LLMs and Text-to-Image Models [55.02903075972816]
若い女性の人種やジェンダーの軸に沿った偏見について研究する。
我々は「文化バイアス」に焦点を当てており、黒人の女の子は白人の仲間よりも、より排他的で、性的に親密で、教育可能であると推定される現象である。
論文 参考訳(メタデータ) (2025-06-08T21:02:33Z) - Protecting Young Users on Social Media: Evaluating the Effectiveness of Content Moderation and Legal Safeguards on Video Sharing Platforms [0.8198234257428011]
我々は,TikTok,YouTube,Instagramの年齢層別ビデオモデレーションの有効性を評価した。
受動的スクロールでは、13歳グループに割り当てられたアカウントは、18歳グループに割り当てられたアカウントよりも、より頻繁に迅速に有害とされるビデオに遭遇した。
露光は、アルゴリズムフィルタリングシステムの弱点を示す、ユーザー主導の検索なしで発生した。
論文 参考訳(メタデータ) (2025-05-16T12:06:42Z) - TikGuard: A Deep Learning Transformer-Based Solution for Detecting Unsuitable TikTok Content for Kids [0.0]
本稿では,TikGuardについて紹介する。TikGuardは,TikTokの子供に適さないコンテンツの検出とフラグ付けを目的とした,トランスフォーマーベースのディープラーニングアプローチである。
特別にキュレートされたデータセットであるTikHarmを使用し、高度なビデオ分類技術を活用することで、TikGuardは86.7%の精度を達成した。
直接比較はTikHarmデータセットのユニークさによって制限されているが、TikGuardのパフォーマンスはコンテンツモデレーションの強化の可能性を強調している。
論文 参考訳(メタデータ) (2024-10-01T05:00:05Z) - More Skin, More Likes! Measuring Child Exposure and User Engagement on TikTok [0.0]
子どものTikTok曝露に関する研究
子どもをフィーチャーした115のユーザーアカウントから5,896本のビデオに対する432,178件のコメントを分析した。
論文 参考訳(メタデータ) (2024-08-10T19:44:12Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - A User-Driven Framework for Regulating and Auditing Social Media [94.70018274127231]
アルゴリズムフィルタリングは、フレキシブルでユーザ主導のベースラインに対して規制されるべきである。
プラットフォームフィルタのフィードには,それぞれのベースラインフィードと「類似した」情報コンテンツが含まれる必要がある。
プラットフォームがこの要件を尊重するかどうかをチェックする監査手順を提案する。
論文 参考訳(メタデータ) (2023-04-20T17:53:34Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - Age Appropriate Design: Assessment of TikTok, Twitch, and YouTube Kids [0.0]
年齢に適した設計のための15のICO基準について分析した。
以上の結果から,年齢検証や透明性などの基準が評価に適切な指針となることが示唆された。
以上の結果から, プラットフォーム自体が, 自己宣言型年齢検証の最も簡単な方法を選択することが示唆された。
論文 参考訳(メタデータ) (2022-08-04T13:02:21Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - An Empirical Investigation of Personalization Factors on TikTok [77.34726150561087]
TikTokのアルゴリズムがプラットフォームの成功とコンテンツの配布に重要であるにもかかわらず、アルゴリズムの実証的な分析はほとんど行われていない。
我々は,私たちが開発したカスタムアルゴリズムを用いたソック・パペット・監査手法を用いて,TikTokへのアクセスに使用される言語と位置情報の効果を検証,分析した。
その結果,フォローフェールが最も強い影響を受けており,ライクフェールやビデオ視聴率が高いことが判明した。
論文 参考訳(メタデータ) (2022-01-28T17:40:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。