論文の概要: TikTok's recommendations skewed towards Republican content during the 2024 U.S. presidential race
- arxiv url: http://arxiv.org/abs/2501.17831v1
- Date: Wed, 29 Jan 2025 18:24:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-30 15:54:14.432757
- Title: TikTok's recommendations skewed towards Republican content during the 2024 U.S. presidential race
- Title(参考訳): ティクトックの推薦は2024年のアメリカ合衆国大統領選挙で共和党のコンテンツに傾いた
- Authors: Hazem Ibrahim, HyunSeok Daniel Jang, Nouar Aldahoul, Aaron R. Kaufman, Talal Rahwan, Yasir Zaki,
- Abstract要約: TikTokは、全世界で10億人以上の月間アクティブユーザーがいて、アメリカでは1億1700万人いるソーシャルメディアプラットフォームの主要な勢力である。
懸念にもかかわらず、政治バイアスに対するTikTokのレコメンデーションアルゴリズムを調査している。
このギャップを埋めるために、2024年のアメリカ合衆国大統領選挙に先立ち、党派的なコンテンツレコメンデーションをテストする323の独立したアルゴリズムによる監査実験を実施します。
- 参考スコア(独自算出の注目度): 1.340487372205839
- License:
- Abstract: TikTok is a major force among social media platforms with over a billion monthly active users worldwide and 170 million in the United States. The platform's status as a key news source, particularly among younger demographics, raises concerns about its potential influence on politics in the U.S. and globally. Despite these concerns, there is scant research investigating TikTok's recommendation algorithm for political biases. We fill this gap by conducting 323 independent algorithmic audit experiments testing partisan content recommendations in the lead-up to the 2024 U.S. presidential elections. Specifically, we create hundreds of "sock puppet" TikTok accounts in Texas, New York, and Georgia, seeding them with varying partisan content and collecting algorithmic content recommendations for each of them. Collectively, these accounts viewed ~394,000 videos from April 30th to November 11th, 2024, which we label for political and partisan content. Our analysis reveals significant asymmetries in content distribution: Republican-seeded accounts received ~11.8% more party-aligned recommendations compared to their Democratic-seeded counterparts, and Democratic-seeded accounts were exposed to ~7.5% more opposite-party recommendations on average. These asymmetries exist across all three states and persist when accounting for video- and channel-level engagement metrics such as likes, views, shares, comments, and followers, and are driven primarily by negative partisanship content. Our findings provide insights into the inner workings of TikTok's recommendation algorithm during a critical election period, raising fundamental questions about platform neutrality.
- Abstract(参考訳): TikTokは、全世界で10億人の月間アクティブユーザーがいて、アメリカでは1億1700万人いるソーシャルメディアプラットフォームの中で、大きな勢力である。
プラットフォームが重要なニュースソースとしての地位、特に若年層の間では、アメリカ合衆国と世界の政治に影響を及ぼす可能性への懸念が高まっている。
これらの懸念にもかかわらず、政治バイアスに対するTikTokの推奨アルゴリズムを調査している。
このギャップを埋めるために、2024年のアメリカ合衆国大統領選挙に先立ち、党派的なコンテンツレコメンデーションをテストする323の独立したアルゴリズムによる監査実験を実施します。
具体的には、テキサス、ニューヨーク、ジョージアに数百のTikTokアカウントを作り、それぞれに様々なパルチザンコンテンツを用意し、アルゴリズムによるコンテンツレコメンデーションを集めます。
まとめると、これらのアカウントは2024年4月30日から11月11日までに394,000本のビデオを見た。
我々の分析では、コンテンツ配信において重要な非対称性が明らかになっている: 共和党系アカウントは、民主党系アカウントに比べて、政党系レコメンデーションが約11.8%多く、民主党系アカウントは平均して7.5%、反対派レコメンデーションが約7.5%増加した。
これらの非対称性は3つの州にまたがって存在し、いいね!、ビュー、共有、コメント、フォロワーといったビデオレベルおよびチャンネルレベルのエンゲージメントメトリクスを考慮に入れた時に持続し、主にネガティブなパルチザン性コンテンツによって駆動される。
この結果から,TikTokの推薦アルゴリズムの内部動作に関する重要な選挙期間中の知見が得られ,プラットフォーム中立性に関する根本的な疑問が提起された。
関連論文リスト
- Echo Chambers in the Age of Algorithms: An Audit of Twitter's Friend Recommender System [2.8186456204337746]
我々はTwitterの友達推薦システムのアルゴリズムによる監査を行う。
われわれは2022年の中間選挙で、最初は左右の米国の政治家をフォローする自動Twitterアカウントを作成している。
我々は,レコメンデーションアルゴリズムに従ってアカウントをエコーチャンバーに構造的に類似した密集した相互近隣に導く一方で,リコメンデーターはユーザのネットワークの政治的均質性を損なうことも見出した。
論文 参考訳(メタデータ) (2024-04-09T16:12:22Z) - Opinion Mining from YouTube Captions Using ChatGPT: A Case Study of
Street Interviews Polling the 2023 Turkish Elections [0.0]
本稿では, 世論調査のための新たな手法を提案し, 世論調査によるYouTubeの自動キャプションをデータソースとして活用する。
本稿では,ChatGPTを用いた意見マイニングフレームワークを導入し,投票意図とモチベーションをマスアノテートする。
本報告では,ChatGPTが好む候補を97%の精度で予測し,325件のインタビューから収集したデータに基づいて,13の候補の中から71%の精度で正しい投票動機を推定できる。
論文 参考訳(メタデータ) (2023-04-07T01:25:22Z) - Bias or Diversity? Unraveling Fine-Grained Thematic Discrepancy in U.S.
News Headlines [63.52264764099532]
われわれは、2014年から2022年までの米国の主要メディアから、180万件のニュース記事の大規模なデータセットを使用している。
我々は、国内政治、経済問題、社会問題、外交の4つの主要なトピックに関連する、きめ細かいテーマの相違を定量化する。
以上の結果から,国内政治や社会問題においては,一定のメディア偏見が原因であることが示唆された。
論文 参考訳(メタデータ) (2023-03-28T03:31:37Z) - Computational Assessment of Hyperpartisanship in News Titles [55.92100606666497]
われわれはまず、超党派ニュースタイトル検出のための新しいデータセットを開発するために、人間の誘導する機械学習フレームワークを採用する。
全体的に右派メディアは比例的に超党派的なタイトルを使う傾向にある。
我々は、外国問題、政治システム、ニュースタイトルにおける過党主義を示唆する社会問題を含む3つの主要なトピックを識別する。
論文 参考訳(メタデータ) (2023-01-16T05:56:58Z) - Does Twitter know your political views? POLiTweets dataset and
semi-automatic method for political leaning discovery [0.0]
POLiTweetsは、複数政党のセットアップで政治的アフィリエイトを発見するための、ポーランド初の公開データセットである。
ポーランド語で書かれたユーザ約10万のツイートと、166人のユーザ約40万のツイートが、手動でテストセットとして注釈付けされている。
私たちは、トピックやコンテンツライターのタイプ、一般市民対プロの政治家のコンテキストにおけるドメインシフトの側面を研究するために、私たちのデータを使用しました。
論文 参考訳(メタデータ) (2022-06-14T10:28:23Z) - How Algorithms Shape the Distribution of Political Advertising: Case
Studies of Facebook, Google, and TikTok [5.851101657703105]
私たちは、Facebook、Google、TikTokによる2020年の米大統領選挙に関する80万以上の広告と250万のビデオを含むデータセットを分析します。
我々は、これらのプラットフォームがどのように政治広告の配信を増幅または緩和したかを批判的に評価するために、公開データの最初の大規模データ分析を行う。
我々は、開示を改善するための推奨事項をまとめて、一般大衆がプラットフォームや政治広告主に説明責任を負わせることができるようにします。
論文 参考訳(メタデータ) (2022-06-09T18:19:30Z) - An Empirical Investigation of Personalization Factors on TikTok [77.34726150561087]
TikTokのアルゴリズムがプラットフォームの成功とコンテンツの配布に重要であるにもかかわらず、アルゴリズムの実証的な分析はほとんど行われていない。
我々は,私たちが開発したカスタムアルゴリズムを用いたソック・パペット・監査手法を用いて,TikTokへのアクセスに使用される言語と位置情報の効果を検証,分析した。
その結果,フォローフェールが最も強い影響を受けており,ライクフェールやビデオ視聴率が高いことが判明した。
論文 参考訳(メタデータ) (2022-01-28T17:40:00Z) - Reaching the bubble may not be enough: news media role in online
political polarization [58.720142291102135]
分極を減らす方法は、異なる政治的指向を持つ個人に党間のニュースを分配することである。
本研究は、ブラジルとカナダにおける全国選挙の文脈において、これが成立するかどうかを考察する。
論文 参考訳(メタデータ) (2021-09-18T11:34:04Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Political audience diversity and news reliability in algorithmic ranking [54.23273310155137]
本稿では,ウェブサイトのオーディエンスの政治的多様性を質の指標として活用することを提案する。
ドメインの専門家によるニュースソースの信頼性評価と6,890人の米国市民の多様なサンプルによるWebブラウジングデータを用いて、より極端な、政治的に多様性の低いWebサイトが、ジャーナリストの基準を低くしていることを示す。
論文 参考訳(メタデータ) (2020-07-16T02:13:55Z) - Neutral bots probe political bias on social media [7.41821251168122]
Twitter上でさまざまなニュースソースをフォローし始める中立的なソーシャルボットをデプロイし、プラットフォームメカニズムとユーザインタラクションから生じる偏見を調査します。
ニュースフィードに政治的偏見の強い、あるいは一貫した証拠は見つからない。
保守的なアカウントの相互作用は右向きに歪められているが、リベラルなアカウントは、彼らの経験を政治的中心へとシフトさせる穏健なコンテンツに晒されている。
論文 参考訳(メタデータ) (2020-05-17T01:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。