論文の概要: Dynamics of Polarization Under Normative Institutions and Opinion
Expression Stewarding
- arxiv url: http://arxiv.org/abs/2403.06264v1
- Date: Sun, 10 Mar 2024 17:02:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 06:47:45.785141
- Title: Dynamics of Polarization Under Normative Institutions and Opinion
Expression Stewarding
- Title(参考訳): 規範的制度下における分極のダイナミクスと意見表現スチュワード
- Authors: Atrisha Sarkar, Gillian K. Hadfield
- Abstract要約: 我々は,人間の規範性,すなわち,人口に関する信念に基づく規範的意見の個々人の表現が,人口レベルの分極につながることを確証する。
ゲーム理論モデルを用いて、より極端な意見を持つ個人は、その外集団メンバーに対して、より極端なレトリックと高い誤解を抱くことを確かめる。
- 参考スコア(独自算出の注目度): 5.22145960878624
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although there is mounting empirical evidence for the increase in affective
polarization, few mechanistic models can explain its emergence at the
population level. The question of how such a phenomenon can emerge from
divergent opinions of a population on an ideological issue is still an open
issue. In this paper, we establish that human normativity, that is, individual
expression of normative opinions based on beliefs about the population, can
lead to population-level polarization when ideological institutions distort
beliefs in accordance with their objective of moving expressed opinion to one
extreme. Using a game-theoretic model, we establish that individuals with more
extreme opinions will have more extreme rhetoric and higher misperceptions
about their outgroup members. Our model also shows that when social
recommendation systems mediate institutional signals, we can observe the
formation of different institutional communities, each with its unique
community structure and characteristics. Using the model, we identify practical
strategies platforms can implement, such as reducing exposure to signals from
ideological institutions and a tailored approach to content moderation, both of
which can rectify the affective polarization problem within its purview.
- Abstract(参考訳): 情動分極の増加に関する実証的な証拠はいくつかあるが、その出現を人口レベルで説明できる機械モデルはほとんどない。
このような現象が、イデオロギーの問題に関する集団の意見の相違からどのように生じるのかという問題は、まだ未解決の問題である。
本稿では,人的規範性,すなわち,人口に関する信念に基づく規範的意見の個人的表現が,イデオロギー機関が,表現的意見の極端への移動という目的に応じて信念を歪めてしまうと,人口レベルの分極につながることを実証する。
ゲーム理論モデルを用いて,より極端な意見を持つ個人が,グループ外のメンバーに対して,より極端な修辞的,より高い誤解を抱くことを確立する。
また,社会レコメンデーション制度が制度的シグナルを媒介する場合には,異なる制度的コミュニティの形成をそれぞれ独自のコミュニティ構造と特性で観察できることを示す。
このモデルを用いて、イデオロギー機関からの信号への露出を減らすことや、コンテンツモデレーションに対する調整されたアプローチといった、感情的な偏光問題をそのパービュー内で修正できる実践的な戦略プラットフォームを同定する。
関連論文リスト
- Emergence of human-like polarization among large language model agents [61.622596148368906]
我々は、何千もの大規模言語モデルエージェントを含むネットワーク化されたシステムをシミュレートし、それらの社会的相互作用を発見し、人間のような偏極をもたらす。
人間とLLMエージェントの類似性は、社会的分極を増幅する能力に関する懸念を提起するだけでなく、それを緩和するための有効な戦略を特定するための貴重なテストベッドとして機能する可能性も持っている。
論文 参考訳(メタデータ) (2025-01-09T11:45:05Z) - IOHunter: Graph Foundation Model to Uncover Online Information Operations [8.532129691916348]
ソーシャルメディアプラットフォームは、社会的物語に幅広い声が影響を及ぼす現代アゴラスとして機能し、公共の場として欠かせない場所となっている。
偽情報、偽ニュース、誤解を招く主張の拡散は民主的プロセスと社会的結束を脅かす。
本稿では,様々なインフルエンスキャンペーンを通じて,情報操作を編成するユーザ,すなわちtextitIOドライバを識別する手法を提案する。
論文 参考訳(メタデータ) (2024-12-19T09:14:24Z) - Who Sets the Agenda on Social Media? Ideology and Polarization in Online Debates [34.82692226532414]
今回の研究では、気候変動、新型コロナウイルス、ロシア・ウクライナ戦争という3つの世界的議論から、大規模なTwitterデータを分析します。
本研究は,メディアや活動家など特定のカテゴリーのアクターによる議論ではなく,イデオロギー的アライメントによる議論が主であることを示す。
論文 参考訳(メタデータ) (2024-12-06T16:48:22Z) - From Experts to the Public: Governing Multimodal Language Models in Politically Sensitive Video Analysis [48.14390493099495]
本稿では,大規模言語モデル(MM-LLM)の個人的および集団的検討を通じて,ガバナンスについて検討する。
筆者らは,まず10人のジャーナリストにインタビューを行い,専門家によるビデオ解釈のベースライン理解を確立した。第2に,包括的.AIを用いた議論に携わる一般市民114名を対象にした。
論文 参考訳(メタデータ) (2024-09-15T03:17:38Z) - Constraining Participation: Affordances of Feedback Features in Interfaces to Large Language Models [49.74265453289855]
大規模言語モデル(LLM)は、コンピュータ、Webブラウザ、ブラウザベースのインターフェースによるインターネット接続を持つ人なら誰でも利用できるようになった。
本稿では,ChatGPTインタフェースにおける対話型フィードバック機能の可能性について検討し,ユーザ入力の形状やイテレーションへの参加について分析する。
論文 参考訳(メタデータ) (2024-08-27T13:50:37Z) - Carthago Delenda Est: Co-opetitive Indirect Information Diffusion Model
for Influence Operations on Online Social Media [6.236019068888737]
DluvsionはTwitterのようなソーシャルメディア上で、競合する情報伝達活動のためのエージェントベースモデルである。
我々は、スタンス導入に影響を与えるエンゲージメント指標、情報の非社会的結びつき、拡散可能なスタンスとしての中立性、およびメディアのフレーミング効果に類似し、スタンス伝播に関して共生的なテーマについて説明する。
論文 参考訳(メタデータ) (2024-02-02T21:15:24Z) - Disinformation Echo-Chambers on Facebook [0.27195102129095]
この章では、Facebookグループ内の協調的不正確な振る舞いを特定するために設計された計算手法を紹介する。
この方法は、投稿、URL、画像の分析に焦点を当て、一部のFacebookグループが組織されたキャンペーンに従事していることを明らかにした。
これらのグループは同一のコンテンツを同時に共有し、ユーザーが嘘や誤解を招く物語を繰り返し遭遇することを露呈する可能性がある。
論文 参考訳(メタデータ) (2023-09-14T14:33:16Z) - Adherence to Misinformation on Social Media Through Socio-Cognitive and
Group-Based Processes [79.79659145328856]
誤報が広まると、これはソーシャルメディア環境が誤報の付着を可能にするためである、と我々は主張する。
偏光と誤情報付着が密接な関係にあると仮定する。
論文 参考訳(メタデータ) (2022-06-30T12:34:24Z) - Perspective-taking to Reduce Affective Polarization on Social Media [11.379010432760241]
ブラウザエクステンションを通じてランダムなフィールド実験をTwitter上で1,611人の参加者に展開する。
参加者を「アウトグループ」フィードに露出するだけでエンゲージメントが向上するが、他の人々が政治的見解を持っている理由の理解は得られない。
参加者に不一致を思い出させるよう促すことによって、親しみやすく共感的な言葉で経験をフレーミングすることは、エンゲージメントに影響を与えず、反対の見解を理解する能力を高める。
論文 参考訳(メタデータ) (2021-10-11T20:25:10Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - An Iterative Approach for Identifying Complaint Based Tweets in Social
Media Platforms [76.9570531352697]
本稿では,トランスポートドメインに関連する苦情に基づく投稿を識別する反復的手法を提案する。
研究目的のための新しいデータセットのリリースとともに、包括的評価を行う。
論文 参考訳(メタデータ) (2020-01-24T22:23:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。