論文の概要: The Monetisation of Toxicity: Analysing YouTube Content Creators and Controversy-Driven Engagement
- arxiv url: http://arxiv.org/abs/2408.00534v1
- Date: Thu, 1 Aug 2024 13:10:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-04 20:36:37.934265
- Title: The Monetisation of Toxicity: Analysing YouTube Content Creators and Controversy-Driven Engagement
- Title(参考訳): The Monetisation of Toxicity: Analysing YouTube Content Creators and Controversy-Driven Engagement
- Authors: Thales Bertaglia, Catalina Goanta, Adriana Iamnitchi,
- Abstract要約: 本稿では, 論争, 毒性, 収益化の関連性に着目し, 論争を巻き起こす内容の定量的分析を行う。
16,349本の動画と1億5500万以上のコメントを含む、Redditの議論から抽出された20の議論のあるYouTubeチャンネルからなるキュレートされたデータセットを紹介します。
我々は、ビデオ記述からアフィリエイトマーケティングや直接販売を含む様々なモデルに収益化の手がかりを特定し、分類する。
以上の結果から,有毒なコメントは高いエンゲージメントと相関するが,収益化に悪影響を及ぼすことが明らかとなった。
- 参考スコア(独自算出の注目度): 1.3108652488669736
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: YouTube is a major social media platform that plays a significant role in digital culture, with content creators at its core. These creators often engage in controversial behaviour to drive engagement, which can foster toxicity. This paper presents a quantitative analysis of controversial content on YouTube, focusing on the relationship between controversy, toxicity, and monetisation. We introduce a curated dataset comprising 20 controversial YouTube channels extracted from Reddit discussions, including 16,349 videos and more than 105 million comments. We identify and categorise monetisation cues from video descriptions into various models, including affiliate marketing and direct selling, using lists of URLs and keywords. Additionally, we train a machine learning model to measure the toxicity of comments in these videos. Our findings reveal that while toxic comments correlate with higher engagement, they negatively impact monetisation, indicating that controversy-driven interaction does not necessarily lead to financial gain. We also observed significant variation in monetisation strategies, with some creators showing extensive monetisation despite high toxicity levels. Our study introduces a curated dataset, lists of URLs and keywords to categorise monetisation, a machine learning model to measure toxicity, and is a significant step towards understanding the complex relationship between controversy, engagement, and monetisation on YouTube. The lists used for detecting and categorising monetisation cues are available on https://github.com/thalesbertaglia/toxmon.
- Abstract(参考訳): YouTubeは、デジタル文化において重要な役割を果たすソーシャルメディアプラットフォームであり、コンテンツクリエーターの中核をなす。
これらのクリエーターは、しばしば関与を促進するために議論の的となっている行動に関わり、毒性を育む。
本稿では, 論争, 毒性, 収益化の関連性に着目し, 論争を巻き起こす内容の定量的分析を行う。
16,349本の動画と1億5500万以上のコメントを含む、Redditの議論から抽出された20の議論のあるYouTubeチャンネルからなるキュレートされたデータセットを紹介します。
ビデオ記述からアフィリエイトマーケティングや直接販売など,さまざまなモデルへの収益化の手がかりを,URLやキーワードのリストを用いて特定し,分類する。
さらに、これらのビデオにおけるコメントの毒性を測定するために、機械学習モデルをトレーニングします。
以上の結果から,有毒なコメントは高いエンゲージメントと相関するが,収益化に悪影響を及ぼすことが明らかとなった。
また, 有毒度が高いにもかかわらず, 収益化戦略の著しい変化も観察された。
本稿では、有毒度を測定する機械学習モデルとして、キュレートされたデータセット、分類された収益化のためのURLとキーワードのリストを紹介し、YouTube上での論争、エンゲージメント、および収益化の複雑な関係を理解するための重要なステップである。
収益化の手がかりの検出と分類に使用されるリストはhttps://github.com/thalesbertaglia/toxmon.comで公開されている。
関連論文リスト
- ToxVidLM: A Multimodal Framework for Toxicity Detection in Code-Mixed Videos [46.148023197749396]
ToxVidLMには、マルチモーダルモジュール、クロスモーダルシンクロナイゼーションモジュール、マルチタスクモジュールという3つの重要なモジュールが含まれている。
本稿では,YouTubeから収集した931の動画と4021のコード混成ヒンディー語発話からなるベンチマークデータセットを提案する。
論文 参考訳(メタデータ) (2024-05-31T05:40:56Z) - Detecting Suspicious Commenter Mob Behaviors on YouTube Using Graph2Vec [1.1371889042789218]
本稿では,YouTubeチャンネル間の不審なコメントモブ様の挙動を検出するための,ソーシャルネットワーク分析に基づく手法を提案する。
本手法は,このような行動のレベルに基づいてチャネルを特徴付けることを目的としており,それらにまたがるコモンパターンを同定する。
分析の結果,疑わしいコメント者の行動の頻度に光を当てた。
論文 参考訳(メタデータ) (2023-11-09T23:49:29Z) - Twits, Toxic Tweets, and Tribal Tendencies: Trends in Politically Polarized Posts on Twitter [5.161088104035108]
個人レベルでの毒性と,Twitter/X上でのトピックレベルに寄与するパーシスタンスと感情分極が果たす役割について検討する。
43,151人のTwitter/Xユーザーから8960万のツイートを収集した後、パーティショニングを含むいくつかのアカウントレベルの特徴が、ユーザーが有害コンテンツを投稿する頻度を予測するかを決定する。
論文 参考訳(メタデータ) (2023-07-19T17:24:47Z) - Micro-video Tagging via Jointly Modeling Social Influence and Tag
Relation [56.23157334014773]
85.7%のマイクロビデオにはアノテーションがない。
既存の手法は、主にビデオコンテンツの分析、ユーザの社会的影響やタグ関係を無視することに焦点を当てている。
構築したヘテロジニアスネットワークにおけるリンク予測問題として,マイクロビデオタギングを定式化する。
論文 参考訳(メタデータ) (2023-03-15T02:13:34Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - Modeling Content Creator Incentives on Algorithm-Curated Platforms [76.53541575455978]
本研究では,アルゴリズムの選択が露出ゲームにおける(ナッシュ)平衡の存在と性格にどのように影響するかを検討する。
本研究では、露出ゲームにおける平衡を数値的に見つけるためのツールを提案し、MovieLensとLastFMデータセットの監査結果を示す。
論文 参考訳(メタデータ) (2022-06-27T08:16:59Z) - Conspiracy Brokers: Understanding the Monetization of YouTube Conspiracy
Theories [8.416017904031792]
6,347人のユニークな広告主から184,218件の広告インプレッションを集めています。
メインストリームのコンテンツと比較すると、陰謀ビデオは有名ブランドの広告のレベルが似ているが、捕食的または偽造的な広告の頻度はおよそ11倍だった。
論文 参考訳(メタデータ) (2022-05-31T16:42:52Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Online Hate: Behavioural Dynamics and Relationship with Misinformation [0.0]
YouTubeビデオに100万以上のコメントが寄せられたコーパスでヘイトスピーチ検出を行います。
我々の結果は、ゴドウィンの法則に則って、オンラインの議論は、ますます有害な意見交換へと縮退する傾向にあることを示している。
論文 参考訳(メタデータ) (2021-05-28T17:30:51Z) - Characterizing Abhorrent, Misinformative, and Mistargeted Content on
YouTube [1.9138099871648453]
本稿では,YouTube上の問題コンテンツの度合いと,そのようなコンテンツの拡散における推奨アルゴリズムの役割について検討する。
分析の結果,幼児はランダムにプラットフォームを閲覧すると乱雑なコンテンツに遭遇する可能性が示唆された。
インセルの活動は時間とともに増加しており、プラットフォームはユーザーを極端なコンテンツへと導く上で積極的な役割を果たす可能性がある。
論文 参考訳(メタデータ) (2021-05-20T15:10:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。