論文の概要: Subscriptions and external links help drive resentful users to
alternative and extremist YouTube videos
- arxiv url: http://arxiv.org/abs/2204.10921v1
- Date: Fri, 22 Apr 2022 20:22:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 16:25:50.506745
- Title: Subscriptions and external links help drive resentful users to
alternative and extremist YouTube videos
- Title(参考訳): 有料会員制と外部リンクは、youtubeビデオのオルタナティブで過激なユーザーを惹きつける
- Authors: Annie Y. Chen, Brendan Nyhan, Jason Reifler, Ronald E. Robertson,
Christo Wilson
- Abstract要約: われわれは、YouTube上の代替チャンネルビデオや過激派チャンネルビデオへの露出が、性別や人種的恨みのレベルが高い少数のグループに大きく集中していることを示した。
ウサギの穴」の物語とは対照的に、非加入者は代替チャンネルや過激派チャンネルからの推奨ビデオはめったにない。
- 参考スコア(独自算出の注目度): 7.945705756085774
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Do online platforms facilitate the consumption of potentially harmful
content? Despite widespread concerns that YouTube's algorithms send people down
"rabbit holes" with recommendations to extremist videos, little systematic
evidence exists to support this conjecture. Using paired behavioral and survey
data provided by participants recruited from a representative sample (n=1,181),
we show that exposure to alternative and extremist channel videos on YouTube is
heavily concentrated among a small group of people with high prior levels of
gender and racial resentment. These viewers typically subscribe to these
channels (causing YouTube to recommend their videos more often) and often
follow external links to them. Contrary to the "rabbit holes" narrative,
non-subscribers are rarely recommended videos from alternative and extremist
channels and seldom follow such recommendations when offered.
- Abstract(参考訳): オンラインプラットフォームは潜在的に有害なコンテンツの消費を促進するか?
YouTubeのアルゴリズムが過激派ビデオのレコメンデーションで「ラビットホール」を下ろすという懸念が広まっているが、この予想を支持する体系的な証拠はほとんど存在しない。
代表的なサンプル (n=1,181) から募集された参加者によるペア行動と調査データを用いて,youtube のオルタナティブおよび過激なチャンネルビデオへの露出は,性別や人種の不満が高い少数のグループに強く集中していることを示した。
これらの視聴者は通常これらのチャンネルを購読し(YouTubeを頻繁に推薦する)、外部リンクをフォローすることが多い。
ウサギの穴」の物語とは対照的に、非加入者は代替チャンネルや過激派チャンネルからの推奨ビデオはめったにない。
関連論文リスト
- The Conspiracy Money Machine: Uncovering Telegram's Conspiracy Channels and their Profit Model [50.80312055220701]
陰謀のチャネルは、17,000以上のチャンネルからなる4つの異なるコミュニティにまとめることができる。
陰謀論者はeコマースプラットフォームを利用して、疑わしい商品を販売したり、アフィリエイトリンクを通じて利益を上げたりする。
この事業には何十万もの寄付者が参加し、約6600万ドル(約6億6000万円)の転売を生んでいると結論付けている。
論文 参考訳(メタデータ) (2023-10-24T16:25:52Z) - How to Train Your YouTube Recommender to Avoid Unwanted Videos [51.6864681332515]
興味がない」ボタンと「推奨しないチャンネル」ボタンは、ユーザーが望ましくないリコメンデーションを提示すると、不関心を示すことができる。
われわれはYouTubeユーザーをソックパペットエージェントでシミュレートした。
ボタンが一番うまく機能し、テスト対象のトピックすべてにおいて、このような推奨が大幅に減りました。
論文 参考訳(メタデータ) (2023-07-27T00:21:29Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - Examining the Production of Co-active Channels on YouTube and BitChute [0.0]
本研究では、YouTubeとBitChuteの27のチャンネルでのビデオ制作の違いについて検討する。
殆どのチャンネルは、BitChute上のビデオタイトルで、YouTube上のビデオタイトルよりもはるかに道徳的で政治的な言葉を使っている。
いくつかのケースでは、チャンネルはプラットフォーム全体で異なるトピックのセットでビデオを生成しており、多くの場合、BitChuteでコンテンツを生成している。
論文 参考訳(メタデータ) (2023-03-14T12:51:46Z) - YouTubers Not madeForKids: Detecting Channels Sharing Inappropriate
Videos Targeting Children [3.936965297430477]
われわれは、過去に子供をターゲットにした適切な、あるいは乱暴なビデオを投稿したYouTubeチャンネルを調査した。
YouTubeの想定するコンテンツとフラグが不適切なコンテンツとチャネルであることと、コンテンツが混乱し、まだプラットフォーム上で利用できないこととを明確に区別する。
論文 参考訳(メタデータ) (2022-05-27T10:34:15Z) - Uncovering the Dark Side of Telegram: Fakes, Clones, Scams, and
Conspiracy Movements [67.39353554498636]
我々は35,382の異なるチャンネルと130,000,000以上のメッセージを収集して,Telegramの大規模解析を行う。
カードなどのダークウェブのプライバシー保護サービスにも、悪名高い活動がいくつかある。
疑似チャネルを86%の精度で識別できる機械学習モデルを提案する。
論文 参考訳(メタデータ) (2021-11-26T14:53:31Z) - Auditing the Biases Enacted by YouTube for Political Topics in Germany [0.0]
われわれはYouTubeのレコメンデーションシステムが一定のバイアスを課しているかどうか検討する。
YouTubeは人気が高まっているが、大体無関係なビデオを推奨している。
我々は、コンテンツの人気と感情の関係を識別し分析する強力な人気バイアスについて論じる。
論文 参考訳(メタデータ) (2021-07-21T07:53:59Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Characterizing Abhorrent, Misinformative, and Mistargeted Content on
YouTube [1.9138099871648453]
本稿では,YouTube上の問題コンテンツの度合いと,そのようなコンテンツの拡散における推奨アルゴリズムの役割について検討する。
分析の結果,幼児はランダムにプラットフォームを閲覧すると乱雑なコンテンツに遭遇する可能性が示唆された。
インセルの活動は時間とともに増加しており、プラットフォームはユーザーを極端なコンテンツへと導く上で積極的な役割を果たす可能性がある。
論文 参考訳(メタデータ) (2021-05-20T15:10:48Z) - Examining the consumption of radical content on YouTube [1.2820564400223966]
近年、YouTubeの規模は、YouTubeユーザーが偏見のあるレコメンデーションと、表面上は非政治的なアンチ・ウォークチャンネルの組み合わせによって過激化しているという懸念を喚起している。
ここでは、30万人以上のアメリカ人の代表パネルと個人レベルの閲覧行動を用いて、この仮説を検証する。
極右コンテンツへのエンゲージメントがYouTubeのレコメンデーションによって体系的に引き起こされているという証拠も、反煙チャンネルが極右への入り口として機能しているという明確な証拠も見つからない。
論文 参考訳(メタデータ) (2020-11-25T16:00:20Z) - Political audience diversity and news reliability in algorithmic ranking [54.23273310155137]
本稿では,ウェブサイトのオーディエンスの政治的多様性を質の指標として活用することを提案する。
ドメインの専門家によるニュースソースの信頼性評価と6,890人の米国市民の多様なサンプルによるWebブラウジングデータを用いて、より極端な、政治的に多様性の低いWebサイトが、ジャーナリストの基準を低くしていることを示す。
論文 参考訳(メタデータ) (2020-07-16T02:13:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。