論文の概要: Rational Silence and False Polarization: How Viewpoint Organizations and Recommender Systems Distort the Expression of Public Opinion
- arxiv url: http://arxiv.org/abs/2403.06264v2
- Date: Thu, 28 Nov 2024 21:44:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 15:16:38.405615
- Title: Rational Silence and False Polarization: How Viewpoint Organizations and Recommender Systems Distort the Expression of Public Opinion
- Title(参考訳): 合理的サイレンスと偽分極--視点組織とレコメンダシステムが世論の表現を歪める方法
- Authors: Atrisha Sarkar, Gillian K. Hadfield,
- Abstract要約: オンライン談話の観察者がコミュニティの見解を信じるようになると、プラットフォームがどう影響するかを示す。
我々は,イデオロギー組織からのシグナルが修辞的強度の増大を促し,中程度の利用者の「合理的な沈黙」につながることを示す。
我々は、イデオロギー組織からの信号への露出を減らすなど、実装可能な実践的な戦略を特定できる。
- 参考スコア(独自算出の注目度): 4.419843514606336
- License:
- Abstract: AI-based social media platforms has already transformed the nature of economic and social interaction. AI enables the massive scale and highly personalized nature of online information sharing that we now take for granted. Extensive attention has been devoted to the polarization that social media platforms appear to facilitate. However, a key implication of the transformation we are experiencing due to these AI-powered platforms has received much less attention: how platforms impact what observers of online discourse come to believe about community views. These observers include policymakers and legislators, who look to social media to gauge the prospects for policy and legislative change, as well as developers of AI models trained on large-scale internet data, whose outputs may similarly reflect a distorted view of public opinion. In this paper, we present a nested game-theoretic model to show how observed online opinion is produced by the interaction of the decisions made by users about whether and with what rhetorical intensity to share their opinions on a platform, the efforts of organizations (such as traditional media and advocacy organizations) that seek to encourage or discourage opinion-sharing online, and the operation of AI-powered recommender systems controlled by social media platforms. We show that signals from ideological organizations encourage an increase in rhetorical intensity, leading to the 'rational silence' of moderate users. This, in turn, creates a polarized impression of where average opinions lie. We also show that this observed polarization can also be amplified by recommender systems that encourage the formation of communities online that end up seeing a skewed sample of opinion. We also identify practical strategies platforms can implement, such as reducing exposure to signals from ideological organizations and a tailored approach to content moderation.
- Abstract(参考訳): AIベースのソーシャルメディアプラットフォームは、すでに経済と社会の相互作用の性質を変えている。
AIは、オンライン情報共有の大規模かつ高度にパーソナライズされた性質を可能にする。
ソーシャルメディアプラットフォームが促進しているように見える分極に、広範囲の注意が注がれている。
しかし、これらのAIプラットフォームによって私たちが経験している変革の重要な意味は、プラットフォームがコミュニティの見解に対してオンライン談話のオブザーバーが信じるものにどのように影響するかである。
これらのオブザーバーには、政策立案者や立法者がソーシャルメディアに目を向け、政策や法律の変更の見通しを判断するだけでなく、大規模なインターネットデータで訓練されたAIモデルの開発者も含まれており、そのアウトプットも同様に、世論の歪んだ見方を反映している可能性がある。
本稿では、プラットフォーム上で意見を共有するための修辞的強度、オンライン上で意見共有を奨励または阻止しようとする組織(伝統的メディアや擁護団体など)の取り組み、ソーシャルメディアプラットフォームによって制御されるAIを活用した推薦システムの運用について、ユーザの判断の相互作用によって、オンラインの意見がいかに観察されるかを示すネスト型ゲーム理論モデルを提案する。
我々は,イデオロギー組織からのシグナルが修辞的強度の増大を促し,中程度の利用者の「合理的な沈黙」につながることを示す。
これにより、平均的な意見がどこにあるかという偏極的な印象が生まれる。
また, この偏光観測は, オンラインコミュニティの形成を促すレコメンデーションシステムによっても増幅されうることを示す。
また、イデオロギー的な組織からの信号への露出を減らすことや、コンテンツモデレーションに対する調整されたアプローチなど、実装可能な実践的な戦略についても検討する。
関連論文リスト
- Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [58.130894823145205]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - On the steerability of large language models toward data-driven personas [98.9138902560793]
大規模言語モデル(LLM)は、特定のグループや集団の意見が不足している偏りのある応答を生成することが知られている。
本稿では, LLM を用いて特定の視点の制御可能な生成を実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z) - Are Personalized Stochastic Parrots More Dangerous? Evaluating Persona
Biases in Dialogue Systems [103.416202777731]
我々は、対話モデルが採用するペルソナに付随する有害な行動の感度であると定義する「ペルソナバイアス」について検討する。
我々は,人格バイアスを有害な表現と有害な合意のバイアスに分類し,攻撃性,有害継続性,関連性,ステレオタイプ合意,および有害合意の5つの側面において,人格バイアスを測定する包括的な評価枠組みを確立する。
論文 参考訳(メタデータ) (2023-10-08T21:03:18Z) - Social Diversity Reduces the Complexity and Cost of Fostering Fairness [63.70639083665108]
不完全な情報や公平性の柔軟な基準を前提とした干渉機構の効果について検討する。
多様性の役割を定量化し、情報収集の必要性を減らす方法を示す。
この結果から,多様性が変化し,公正性向上を目指す機関に新たなメカニズムが開放されることが示唆された。
論文 参考訳(メタデータ) (2022-11-18T21:58:35Z) - Cascade-based Echo Chamber Detection [16.35164446890934]
ソーシャルメディアのエコーチャンバーは かなり精査されています
本稿では,ソーシャルメディアのフットプリントを説明する確率的生成モデルを提案する。
本研究では,姿勢検出や将来の伝搬予測などの補助的予測タスクにおいて,モデルが精度を向上させる方法を示す。
論文 参考訳(メタデータ) (2022-08-09T09:30:38Z) - The drivers of online polarization: fitting models to data [0.0]
エコーチャンバー効果と意見偏光は、情報消費における人間のバイアスや、フィードアルゴリズムによって生成されるパーソナライズされたレコメンデーションなど、いくつかの要因によって引き起こされる可能性がある。
これまでは主に意見力学モデルを用いて、分極とエコーチャンバーの出現の背後にあるメカニズムを探索してきた。
シミュレーションから得られた意見分布とソーシャルメディア上で測定した意見分布を数値的に比較する手法を提案する。
論文 参考訳(メタデータ) (2022-05-31T17:00:41Z) - Opinion dynamics in social networks: From models to data [0.0]
意見は集団行動を形成し、民主的プロセス、規範の進化、文化の変化に重要な役割を果たしている。
何十年にもわたって、社会科学と自然科学の研究者たちは、個人の視点や社会的交流の変化が、コンセンサスや偏光といった世論の根本的状態にどのようにつながるかを説明しようとしてきた。
論文 参考訳(メタデータ) (2022-01-04T19:21:26Z) - Perspective-taking to Reduce Affective Polarization on Social Media [11.379010432760241]
ブラウザエクステンションを通じてランダムなフィールド実験をTwitter上で1,611人の参加者に展開する。
参加者を「アウトグループ」フィードに露出するだけでエンゲージメントが向上するが、他の人々が政治的見解を持っている理由の理解は得られない。
参加者に不一致を思い出させるよう促すことによって、親しみやすく共感的な言葉で経験をフレーミングすることは、エンゲージメントに影響を与えず、反対の見解を理解する能力を高める。
論文 参考訳(メタデータ) (2021-10-11T20:25:10Z) - Towards control of opinion diversity by introducing zealots into a
polarised social group [7.9603223299524535]
偏極社会集団における意見の多様性に影響を与えるか、制御する方法を探究する。
我々は、ユーザーが二項意見を持ち、接続する他のものに基づいて信条を何度も更新する投票モデルを活用する。
平均的な意見を任意の目標値にシフトするために、Zealotを偏極ネットワークに注入する。
論文 参考訳(メタデータ) (2020-06-12T15:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。