論文の概要: Social Media Algorithms Can Shape Affective Polarization via Exposure to Antidemocratic Attitudes and Partisan Animosity
- arxiv url: http://arxiv.org/abs/2411.14652v1
- Date: Fri, 22 Nov 2024 00:55:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-25 15:04:17.100385
- Title: Social Media Algorithms Can Shape Affective Polarization via Exposure to Antidemocratic Attitudes and Partisan Animosity
- Title(参考訳): ソーシャルメディアのアルゴリズムは、反民主的態度とパルチザンのアニミズムへの露出を通じて、影響のある偏光を形作ることができる
- Authors: Tiziano Piccardi, Martin Saveski, Chenyan Jia, Jeffrey T. Hancock, Jeanne L. Tsai, Michael Bernstein,
- Abstract要約: 偏光性のあるコンテンツの効果をテストするために,フィードをリアルタイムに再ランクする手法を開発した。
AAPA被曝が減少し、AAPA被曝が増加すると、より肯定的な外部感情が観察される。
これらの知見は、感情分極を緩和するフィードアルゴリズムを開発するための潜在的な経路を浮き彫りにしている。
- 参考スコア(独自算出の注目度): 11.77638733450929
- License:
- Abstract: There is widespread concern about the negative impacts of social media feed ranking algorithms on political polarization. Leveraging advancements in large language models (LLMs), we develop an approach to re-rank feeds in real-time to test the effects of content that is likely to polarize: expressions of antidemocratic attitudes and partisan animosity (AAPA). In a preregistered 10-day field experiment on X/Twitter with 1,256 consented participants, we increase or decrease participants' exposure to AAPA in their algorithmically curated feeds. We observe more positive outparty feelings when AAPA exposure is decreased and more negative outparty feelings when AAPA exposure is increased. Exposure to AAPA content also results in an immediate increase in negative emotions, such as sadness and anger. The interventions do not significantly impact traditional engagement metrics such as re-post and favorite rates. These findings highlight a potential pathway for developing feed algorithms that mitigate affective polarization by addressing content that undermines the shared values required for a healthy democracy.
- Abstract(参考訳): ソーシャルメディアフィードランキングアルゴリズムが政治的分極に負の影響について、広く懸念されている。
大規模言語モデル (LLM) の進歩を生かして, 偏在する可能性のあるコンテンツの効果, 反民主的態度の表現, パルチザン的敵意 (AAPA) をリアルタイムに評価する手法を開発した。
参加者1,256人が同意したX/Twitterでの10日間のフィールド実験において、アルゴリズム的にキュレートされたフィードにおいて、参加者のAAPAへの露出を増減する。
AAPA被曝が減少し、AAPA被曝が増加すると、より肯定的な外部感情が観察される。
AAPAの内容が露出すると、悲しみや怒りなどの否定的な感情がすぐに増加する。
介入は、再投稿やお気に入りのレートといった従来のエンゲージメント指標に大きく影響しない。
これらの知見は、健全な民主主義に必要な共有価値を損なうコンテンツに対処することで、感情の分極を緩和するフィードアルゴリズムを開発するための潜在的経路を浮き彫りにしている。
関連論文リスト
- On the Use of Proxies in Political Ad Targeting [49.61009579554272]
我々は、主要な政治広告主がプロキシ属性をターゲットとして緩和を回避したことを示す。
本研究は政治広告の規制に関する議論に重要な意味を持つ。
論文 参考訳(メタデータ) (2024-10-18T17:15:13Z) - Filter bubbles and affective polarization in user-personalized large
language model outputs [0.15540058359482856]
大規模言語モデル(LLM)は、個々のユーザに対して、モデル出力のパーソナライズを増大させる要因となっている。
事実質問の前にユーザの政治的関連性によって,主要な大規模言語モデルであるChatGPT-3.5をいかに促進させるかを検討する。
論文 参考訳(メタデータ) (2023-10-31T18:19:28Z) - Decoding the Silent Majority: Inducing Belief Augmented Social Graph
with Large Language Model for Response Forecasting [74.68371461260946]
SocialSenseは、既存のソーシャルネットワーク上に信念中心のグラフを誘導するフレームワークであり、グラフベースの伝播によって社会的ダイナミクスを捉える。
本手法は,ゼロショット設定と教師あり設定の両方に対する実験的な評価において,既存の最先端技術を超えている。
論文 参考訳(メタデータ) (2023-10-20T06:17:02Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Joint Multisided Exposure Fairness for Recommendation [76.75990595228666]
本稿では,消費者と生産者の両面から共同で問題をモデル化する,露出公正度尺度のファミリを定式化する。
具体的には、双方の利害関係者に対するグループ属性について、個別のユーザや項目を超えて、より体系的なバイアスを推奨するフェアネスの懸念を識別し緩和する。
論文 参考訳(メタデータ) (2022-04-29T19:13:23Z) - Cross Pairwise Ranking for Unbiased Item Recommendation [57.71258289870123]
我々はCPR(Cross Pairwise Ranking)という新しい学習パラダイムを開発する。
CPRは、露出メカニズムを知らずに不偏の推奨を達成する。
理論的には、この方法が学習に対するユーザ/イテムの適合性の影響を相殺することを証明する。
論文 参考訳(メタデータ) (2022-04-26T09:20:27Z) - POLE: Polarized Embedding for Signed Networks [2.6546685109604304]
署名ネットワークにおける機械学習の最近の進歩は、ソーシャルメディアの分極を減らすことを目的として、小さな介入を導くという約束を掲げている。
既存のモデルは、ユーザ間の競合(あるいは負のリンク)を予測するのに特に効果がない。
これはリンクサインとネットワーク構造の間に強い相関関係があるためである。
我々は、位相的類似点と符号的類似点の両方を同時にキャプチャする偏極グラフの符号付き埋め込み法であるPOLEを提案する。
論文 参考訳(メタデータ) (2021-10-17T19:28:47Z) - Perspective-taking to Reduce Affective Polarization on Social Media [11.379010432760241]
ブラウザエクステンションを通じてランダムなフィールド実験をTwitter上で1,611人の参加者に展開する。
参加者を「アウトグループ」フィードに露出するだけでエンゲージメントが向上するが、他の人々が政治的見解を持っている理由の理解は得られない。
参加者に不一致を思い出させるよう促すことによって、親しみやすく共感的な言葉で経験をフレーミングすることは、エンゲージメントに影響を与えず、反対の見解を理解する能力を高める。
論文 参考訳(メタデータ) (2021-10-11T20:25:10Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z) - Designing Recommender Systems to Depolarize [0.32634122554913997]
分極は民主主義の侵食と暴力の進行に関係している。
アルゴリズム駆動のソーシャルメディアは、国レベルでの偏光の主要な要因とは思えないが、偏光社会において有用な介入ポイントとなるかもしれない。
本稿では,畳み込み変換を目標としたアルゴリズム的脱分極介入について検討する。
論文 参考訳(メタデータ) (2021-07-11T03:23:42Z) - Towards control of opinion diversity by introducing zealots into a
polarised social group [7.9603223299524535]
偏極社会集団における意見の多様性に影響を与えるか、制御する方法を探究する。
我々は、ユーザーが二項意見を持ち、接続する他のものに基づいて信条を何度も更新する投票モデルを活用する。
平均的な意見を任意の目標値にシフトするために、Zealotを偏極ネットワークに注入する。
論文 参考訳(メタデータ) (2020-06-12T15:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。