論文の概要: Dynamics of Polarization Under Normative Institutions and Opinion
Expression Stewarding
- arxiv url: http://arxiv.org/abs/2403.06264v1
- Date: Sun, 10 Mar 2024 17:02:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 06:47:45.785141
- Title: Dynamics of Polarization Under Normative Institutions and Opinion
Expression Stewarding
- Title(参考訳): 規範的制度下における分極のダイナミクスと意見表現スチュワード
- Authors: Atrisha Sarkar, Gillian K. Hadfield
- Abstract要約: 我々は,人間の規範性,すなわち,人口に関する信念に基づく規範的意見の個々人の表現が,人口レベルの分極につながることを確証する。
ゲーム理論モデルを用いて、より極端な意見を持つ個人は、その外集団メンバーに対して、より極端なレトリックと高い誤解を抱くことを確かめる。
- 参考スコア(独自算出の注目度): 5.22145960878624
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although there is mounting empirical evidence for the increase in affective
polarization, few mechanistic models can explain its emergence at the
population level. The question of how such a phenomenon can emerge from
divergent opinions of a population on an ideological issue is still an open
issue. In this paper, we establish that human normativity, that is, individual
expression of normative opinions based on beliefs about the population, can
lead to population-level polarization when ideological institutions distort
beliefs in accordance with their objective of moving expressed opinion to one
extreme. Using a game-theoretic model, we establish that individuals with more
extreme opinions will have more extreme rhetoric and higher misperceptions
about their outgroup members. Our model also shows that when social
recommendation systems mediate institutional signals, we can observe the
formation of different institutional communities, each with its unique
community structure and characteristics. Using the model, we identify practical
strategies platforms can implement, such as reducing exposure to signals from
ideological institutions and a tailored approach to content moderation, both of
which can rectify the affective polarization problem within its purview.
- Abstract(参考訳): 情動分極の増加に関する実証的な証拠はいくつかあるが、その出現を人口レベルで説明できる機械モデルはほとんどない。
このような現象が、イデオロギーの問題に関する集団の意見の相違からどのように生じるのかという問題は、まだ未解決の問題である。
本稿では,人的規範性,すなわち,人口に関する信念に基づく規範的意見の個人的表現が,イデオロギー機関が,表現的意見の極端への移動という目的に応じて信念を歪めてしまうと,人口レベルの分極につながることを実証する。
ゲーム理論モデルを用いて,より極端な意見を持つ個人が,グループ外のメンバーに対して,より極端な修辞的,より高い誤解を抱くことを確立する。
また,社会レコメンデーション制度が制度的シグナルを媒介する場合には,異なる制度的コミュニティの形成をそれぞれ独自のコミュニティ構造と特性で観察できることを示す。
このモデルを用いて、イデオロギー機関からの信号への露出を減らすことや、コンテンツモデレーションに対する調整されたアプローチといった、感情的な偏光問題をそのパービュー内で修正できる実践的な戦略プラットフォームを同定する。
関連論文リスト
- Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [58.130894823145205]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - On the steerability of large language models toward data-driven personas [98.9138902560793]
大規模言語モデル(LLM)は、特定のグループや集団の意見が不足している偏りのある応答を生成することが知られている。
本稿では, LLM を用いて特定の視点の制御可能な生成を実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z) - Are Personalized Stochastic Parrots More Dangerous? Evaluating Persona
Biases in Dialogue Systems [103.416202777731]
我々は、対話モデルが採用するペルソナに付随する有害な行動の感度であると定義する「ペルソナバイアス」について検討する。
我々は,人格バイアスを有害な表現と有害な合意のバイアスに分類し,攻撃性,有害継続性,関連性,ステレオタイプ合意,および有害合意の5つの側面において,人格バイアスを測定する包括的な評価枠組みを確立する。
論文 参考訳(メタデータ) (2023-10-08T21:03:18Z) - Social Diversity Reduces the Complexity and Cost of Fostering Fairness [63.70639083665108]
不完全な情報や公平性の柔軟な基準を前提とした干渉機構の効果について検討する。
多様性の役割を定量化し、情報収集の必要性を減らす方法を示す。
この結果から,多様性が変化し,公正性向上を目指す機関に新たなメカニズムが開放されることが示唆された。
論文 参考訳(メタデータ) (2022-11-18T21:58:35Z) - Cascade-based Echo Chamber Detection [16.35164446890934]
ソーシャルメディアのエコーチャンバーは かなり精査されています
本稿では,ソーシャルメディアのフットプリントを説明する確率的生成モデルを提案する。
本研究では,姿勢検出や将来の伝搬予測などの補助的予測タスクにおいて,モデルが精度を向上させる方法を示す。
論文 参考訳(メタデータ) (2022-08-09T09:30:38Z) - The drivers of online polarization: fitting models to data [0.0]
エコーチャンバー効果と意見偏光は、情報消費における人間のバイアスや、フィードアルゴリズムによって生成されるパーソナライズされたレコメンデーションなど、いくつかの要因によって引き起こされる可能性がある。
これまでは主に意見力学モデルを用いて、分極とエコーチャンバーの出現の背後にあるメカニズムを探索してきた。
シミュレーションから得られた意見分布とソーシャルメディア上で測定した意見分布を数値的に比較する手法を提案する。
論文 参考訳(メタデータ) (2022-05-31T17:00:41Z) - Opinion dynamics in social networks: From models to data [0.0]
意見は集団行動を形成し、民主的プロセス、規範の進化、文化の変化に重要な役割を果たしている。
何十年にもわたって、社会科学と自然科学の研究者たちは、個人の視点や社会的交流の変化が、コンセンサスや偏光といった世論の根本的状態にどのようにつながるかを説明しようとしてきた。
論文 参考訳(メタデータ) (2022-01-04T19:21:26Z) - Perspective-taking to Reduce Affective Polarization on Social Media [11.379010432760241]
ブラウザエクステンションを通じてランダムなフィールド実験をTwitter上で1,611人の参加者に展開する。
参加者を「アウトグループ」フィードに露出するだけでエンゲージメントが向上するが、他の人々が政治的見解を持っている理由の理解は得られない。
参加者に不一致を思い出させるよう促すことによって、親しみやすく共感的な言葉で経験をフレーミングすることは、エンゲージメントに影響を与えず、反対の見解を理解する能力を高める。
論文 参考訳(メタデータ) (2021-10-11T20:25:10Z) - Towards control of opinion diversity by introducing zealots into a
polarised social group [7.9603223299524535]
偏極社会集団における意見の多様性に影響を与えるか、制御する方法を探究する。
我々は、ユーザーが二項意見を持ち、接続する他のものに基づいて信条を何度も更新する投票モデルを活用する。
平均的な意見を任意の目標値にシフトするために、Zealotを偏極ネットワークに注入する。
論文 参考訳(メタデータ) (2020-06-12T15:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。