論文の概要: Hate, Obscenity, and Insults: Measuring the Exposure of Children to
Inappropriate Comments in YouTube
- arxiv url: http://arxiv.org/abs/2103.09050v1
- Date: Wed, 3 Mar 2021 20:15:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 07:08:29.081091
- Title: Hate, Obscenity, and Insults: Measuring the Exposure of Children to
Inappropriate Comments in YouTube
- Title(参考訳): 憎しみ、憎しみ、侮辱:YouTubeにおける不適切なコメントに対する子どもの露出を測定する
- Authors: Sultan Alshamrani, Ahmed Abusnaina, Mohammed Abuhamad, Daehun Nyang,
David Mohaisen
- Abstract要約: 本稿では,若年層を対象にしたyoutubeビデオに投稿された不適切なコメントに対する若者の露出を調査した。
約400万レコードの大規模データセットを収集し,年齢不適切な5つのカテゴリの存在と各カテゴリへの露出量を調査した。
自然言語処理と機械学習技術を用いて,不適切なコメントの検出を高精度に行うアンサンブル分類器を構築した。
- 参考スコア(独自算出の注目度): 8.688428251722911
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Social media has become an essential part of the daily routines of children
and adolescents. Moreover, enormous efforts have been made to ensure the
psychological and emotional well-being of young users as well as their safety
when interacting with various social media platforms. In this paper, we
investigate the exposure of those users to inappropriate comments posted on
YouTube videos targeting this demographic. We collected a large-scale dataset
of approximately four million records and studied the presence of five
age-inappropriate categories and the amount of exposure to each category. Using
natural language processing and machine learning techniques, we constructed
ensemble classifiers that achieved high accuracy in detecting inappropriate
comments. Our results show a large percentage of worrisome comments with
inappropriate content: we found 11% of the comments on children's videos to be
toxic, highlighting the importance of monitoring comments, particularly on
children's platforms.
- Abstract(参考訳): ソーシャルメディアは、子供や青年の日常的な習慣の重要な部分となっている。
さらに、若者の心理的、感情的な幸福と、様々なソーシャルメディアプラットフォームと対話する場合の安全性を確保するために、多大な努力がなされている。
本稿では,この人口層をターゲットとしたyoutubeビデオに投稿された不適切なコメントに対する利用者の露出を調査した。
約400万レコードの大規模データセットを収集し,年齢不適切な5つのカテゴリの存在と各カテゴリへの露出量を調査した。
自然言語処理と機械学習技術を用いて,不適切なコメントの検出を高精度に行うアンサンブル分類器を構築した。
その結果,子どもの動画に対するコメントの11%は有害であり,特に子どものプラットフォームにおけるコメントの監視の重要性が強調された。
関連論文リスト
- HOTVCOM: Generating Buzzworthy Comments for Videos [49.39846630199698]
この研究は、中国最大のビデオコンテンツデータセットであるtextscHotVComを紹介し、94万の多様なビデオと1億1700万のコメントからなる。
また、中国語のビデオデータセット上で、視覚的、聴覚的、テキスト的データを相乗的に統合し、影響力のあるホットコンテンツを生成するtexttComHeatフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-23T16:45:13Z) - More Skin, More Likes! Measuring Child Exposure and User Engagement on TikTok [0.0]
子どものTikTok曝露に関する研究
子どもをフィーチャーした115のユーザーアカウントから5,896本のビデオに対する432,178件のコメントを分析した。
論文 参考訳(メタデータ) (2024-08-10T19:44:12Z) - Security Advice for Parents and Children About Content Filtering and
Circumvention as Found on YouTube and TikTok [2.743215038883957]
YouTubeやTikTokで見られるように、コンテンツフィルタリングと回避に関する両親や子供たちのアドバイスを検討する。
その結果、これらのビデオのうち、約4分の3は正確であり、残りの4分の1は事実的不正確なアドバイスを含んでいることがわかった。
子どもを対象とするビデオは、両親を対象とするビデオよりも、誤動作しやすく、有害な行動をとるリスクが高まる傾向にある。
論文 参考訳(メタデータ) (2024-02-05T18:12:33Z) - ViCo: Engaging Video Comment Generation with Human Preference Rewards [68.50351391812723]
ビデオコメント生成の課題に対処するために,3つの新しいデザインのViCoを提案する。
コメントのエンゲージメントを定量化するために、各コメントが受け取る「いいね!
コメントのエンゲージメントを自動的に評価するために、我々は報酬モデルをトレーニングし、その判断を上記のプロキシに合わせる。
論文 参考訳(メタデータ) (2023-08-22T04:01:01Z) - An Image is Worth a Thousand Toxic Words: A Metamorphic Testing
Framework for Content Moderation Software [64.367830425115]
ソーシャルメディアプラットフォームは、ヘイトスピーチ、悪意のある広告、ポルノなど、有害なコンテンツを拡散するためにますます悪用されている。
コンテンツモデレーション手法の開発と展開に多大な努力を払っているにもかかわらず、悪意のあるユーザは、テキストを画像に埋め込むことでモデレーションを回避することができる。
コンテンツモデレーションソフトウェアのためのメタモルフィックテストフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-18T20:33:06Z) - SQuARe: A Large-Scale Dataset of Sensitive Questions and Acceptable
Responses Created Through Human-Machine Collaboration [75.62448812759968]
このデータセットは、韓国の大規模データセットで、49kの機密性があり、42kの許容範囲と46kの非許容応答がある。
データセットは、実際のニュースの見出しに基づいて、HyperCLOVAを人道的に活用して構築された。
論文 参考訳(メタデータ) (2023-05-28T11:51:20Z) - Malicious or Benign? Towards Effective Content Moderation for Children's
Videos [1.0323063834827415]
本稿では,児童ビデオの自動コンテンツモデレーションに関する研究を促進するためのツールキットであるMalicious or Benignを紹介する。
1)ビデオのカスタマイズ可能なアノテーションツール,2)悪意のあるコンテンツのテストケースを検出するのが難しい新しいデータセット,3)最先端のビデオ分類モデルのベンチマークスイートを提案する。
論文 参考訳(メタデータ) (2023-05-24T20:33:38Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - Fighting Malicious Media Data: A Survey on Tampering Detection and
Deepfake Detection [115.83992775004043]
近年のディープラーニング、特に深層生成モデルの発展により、知覚的に説得力のある画像や動画を低コストで制作するための扉が開かれた。
本稿では,現在のメディアタンパリング検出手法を概観し,今後の研究の課題と動向について論じる。
論文 参考訳(メタデータ) (2022-12-12T02:54:08Z) - Privacy Concerns in Chatbot Interactions: When to Trust and When to
Worry [3.867363075280544]
英国市民491名を対象に調査を行った。
以上の結果から,ユーザの関心は個人情報の削除とデータの不適切な使用に対する懸念に焦点が当てられていることがわかった。
また、会話エージェントと会話した後、個人がデータのコントロールを失うことを懸念していることも確認した。
論文 参考訳(メタデータ) (2021-07-08T16:31:58Z) - Characterizing Abhorrent, Misinformative, and Mistargeted Content on
YouTube [1.9138099871648453]
本稿では,YouTube上の問題コンテンツの度合いと,そのようなコンテンツの拡散における推奨アルゴリズムの役割について検討する。
分析の結果,幼児はランダムにプラットフォームを閲覧すると乱雑なコンテンツに遭遇する可能性が示唆された。
インセルの活動は時間とともに増加しており、プラットフォームはユーザーを極端なコンテンツへと導く上で積極的な役割を果たす可能性がある。
論文 参考訳(メタデータ) (2021-05-20T15:10:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。