論文の概要: Rational Silence and False Polarization: How Viewpoint Organizations and Recommender Systems Distort the Expression of Public Opinion
- arxiv url: http://arxiv.org/abs/2403.06264v2
- Date: Thu, 28 Nov 2024 21:44:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 15:16:38.405615
- Title: Rational Silence and False Polarization: How Viewpoint Organizations and Recommender Systems Distort the Expression of Public Opinion
- Title(参考訳): 合理的サイレンスと偽分極--視点組織とレコメンダシステムが世論の表現を歪める方法
- Authors: Atrisha Sarkar, Gillian K. Hadfield,
- Abstract要約: オンライン談話の観察者がコミュニティの見解を信じるようになると、プラットフォームがどう影響するかを示す。
我々は,イデオロギー組織からのシグナルが修辞的強度の増大を促し,中程度の利用者の「合理的な沈黙」につながることを示す。
我々は、イデオロギー組織からの信号への露出を減らすなど、実装可能な実践的な戦略を特定できる。
- 参考スコア(独自算出の注目度): 4.419843514606336
- License:
- Abstract: AI-based social media platforms has already transformed the nature of economic and social interaction. AI enables the massive scale and highly personalized nature of online information sharing that we now take for granted. Extensive attention has been devoted to the polarization that social media platforms appear to facilitate. However, a key implication of the transformation we are experiencing due to these AI-powered platforms has received much less attention: how platforms impact what observers of online discourse come to believe about community views. These observers include policymakers and legislators, who look to social media to gauge the prospects for policy and legislative change, as well as developers of AI models trained on large-scale internet data, whose outputs may similarly reflect a distorted view of public opinion. In this paper, we present a nested game-theoretic model to show how observed online opinion is produced by the interaction of the decisions made by users about whether and with what rhetorical intensity to share their opinions on a platform, the efforts of organizations (such as traditional media and advocacy organizations) that seek to encourage or discourage opinion-sharing online, and the operation of AI-powered recommender systems controlled by social media platforms. We show that signals from ideological organizations encourage an increase in rhetorical intensity, leading to the 'rational silence' of moderate users. This, in turn, creates a polarized impression of where average opinions lie. We also show that this observed polarization can also be amplified by recommender systems that encourage the formation of communities online that end up seeing a skewed sample of opinion. We also identify practical strategies platforms can implement, such as reducing exposure to signals from ideological organizations and a tailored approach to content moderation.
- Abstract(参考訳): AIベースのソーシャルメディアプラットフォームは、すでに経済と社会の相互作用の性質を変えている。
AIは、オンライン情報共有の大規模かつ高度にパーソナライズされた性質を可能にする。
ソーシャルメディアプラットフォームが促進しているように見える分極に、広範囲の注意が注がれている。
しかし、これらのAIプラットフォームによって私たちが経験している変革の重要な意味は、プラットフォームがコミュニティの見解に対してオンライン談話のオブザーバーが信じるものにどのように影響するかである。
これらのオブザーバーには、政策立案者や立法者がソーシャルメディアに目を向け、政策や法律の変更の見通しを判断するだけでなく、大規模なインターネットデータで訓練されたAIモデルの開発者も含まれており、そのアウトプットも同様に、世論の歪んだ見方を反映している可能性がある。
本稿では、プラットフォーム上で意見を共有するための修辞的強度、オンライン上で意見共有を奨励または阻止しようとする組織(伝統的メディアや擁護団体など)の取り組み、ソーシャルメディアプラットフォームによって制御されるAIを活用した推薦システムの運用について、ユーザの判断の相互作用によって、オンラインの意見がいかに観察されるかを示すネスト型ゲーム理論モデルを提案する。
我々は,イデオロギー組織からのシグナルが修辞的強度の増大を促し,中程度の利用者の「合理的な沈黙」につながることを示す。
これにより、平均的な意見がどこにあるかという偏極的な印象が生まれる。
また, この偏光観測は, オンラインコミュニティの形成を促すレコメンデーションシステムによっても増幅されうることを示す。
また、イデオロギー的な組織からの信号への露出を減らすことや、コンテンツモデレーションに対する調整されたアプローチなど、実装可能な実践的な戦略についても検討する。
関連論文リスト
- Emergence of human-like polarization among large language model agents [61.622596148368906]
我々は、何千もの大規模言語モデルエージェントを含むネットワーク化されたシステムをシミュレートし、それらの社会的相互作用を発見し、人間のような偏極をもたらす。
人間とLLMエージェントの類似性は、社会的分極を増幅する能力に関する懸念を提起するだけでなく、それを緩和するための有効な戦略を特定するための貴重なテストベッドとして機能する可能性も持っている。
論文 参考訳(メタデータ) (2025-01-09T11:45:05Z) - IOHunter: Graph Foundation Model to Uncover Online Information Operations [8.532129691916348]
ソーシャルメディアプラットフォームは、社会的物語に幅広い声が影響を及ぼす現代アゴラスとして機能し、公共の場として欠かせない場所となっている。
偽情報、偽ニュース、誤解を招く主張の拡散は民主的プロセスと社会的結束を脅かす。
本稿では,様々なインフルエンスキャンペーンを通じて,情報操作を編成するユーザ,すなわちtextitIOドライバを識別する手法を提案する。
論文 参考訳(メタデータ) (2024-12-19T09:14:24Z) - Who Sets the Agenda on Social Media? Ideology and Polarization in Online Debates [34.82692226532414]
今回の研究では、気候変動、新型コロナウイルス、ロシア・ウクライナ戦争という3つの世界的議論から、大規模なTwitterデータを分析します。
本研究は,メディアや活動家など特定のカテゴリーのアクターによる議論ではなく,イデオロギー的アライメントによる議論が主であることを示す。
論文 参考訳(メタデータ) (2024-12-06T16:48:22Z) - From Experts to the Public: Governing Multimodal Language Models in Politically Sensitive Video Analysis [48.14390493099495]
本稿では,大規模言語モデル(MM-LLM)の個人的および集団的検討を通じて,ガバナンスについて検討する。
筆者らは,まず10人のジャーナリストにインタビューを行い,専門家によるビデオ解釈のベースライン理解を確立した。第2に,包括的.AIを用いた議論に携わる一般市民114名を対象にした。
論文 参考訳(メタデータ) (2024-09-15T03:17:38Z) - Constraining Participation: Affordances of Feedback Features in Interfaces to Large Language Models [49.74265453289855]
大規模言語モデル(LLM)は、コンピュータ、Webブラウザ、ブラウザベースのインターフェースによるインターネット接続を持つ人なら誰でも利用できるようになった。
本稿では,ChatGPTインタフェースにおける対話型フィードバック機能の可能性について検討し,ユーザ入力の形状やイテレーションへの参加について分析する。
論文 参考訳(メタデータ) (2024-08-27T13:50:37Z) - Carthago Delenda Est: Co-opetitive Indirect Information Diffusion Model
for Influence Operations on Online Social Media [6.236019068888737]
DluvsionはTwitterのようなソーシャルメディア上で、競合する情報伝達活動のためのエージェントベースモデルである。
我々は、スタンス導入に影響を与えるエンゲージメント指標、情報の非社会的結びつき、拡散可能なスタンスとしての中立性、およびメディアのフレーミング効果に類似し、スタンス伝播に関して共生的なテーマについて説明する。
論文 参考訳(メタデータ) (2024-02-02T21:15:24Z) - Disinformation Echo-Chambers on Facebook [0.27195102129095]
この章では、Facebookグループ内の協調的不正確な振る舞いを特定するために設計された計算手法を紹介する。
この方法は、投稿、URL、画像の分析に焦点を当て、一部のFacebookグループが組織されたキャンペーンに従事していることを明らかにした。
これらのグループは同一のコンテンツを同時に共有し、ユーザーが嘘や誤解を招く物語を繰り返し遭遇することを露呈する可能性がある。
論文 参考訳(メタデータ) (2023-09-14T14:33:16Z) - Adherence to Misinformation on Social Media Through Socio-Cognitive and
Group-Based Processes [79.79659145328856]
誤報が広まると、これはソーシャルメディア環境が誤報の付着を可能にするためである、と我々は主張する。
偏光と誤情報付着が密接な関係にあると仮定する。
論文 参考訳(メタデータ) (2022-06-30T12:34:24Z) - Perspective-taking to Reduce Affective Polarization on Social Media [11.379010432760241]
ブラウザエクステンションを通じてランダムなフィールド実験をTwitter上で1,611人の参加者に展開する。
参加者を「アウトグループ」フィードに露出するだけでエンゲージメントが向上するが、他の人々が政治的見解を持っている理由の理解は得られない。
参加者に不一致を思い出させるよう促すことによって、親しみやすく共感的な言葉で経験をフレーミングすることは、エンゲージメントに影響を与えず、反対の見解を理解する能力を高める。
論文 参考訳(メタデータ) (2021-10-11T20:25:10Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - An Iterative Approach for Identifying Complaint Based Tweets in Social
Media Platforms [76.9570531352697]
本稿では,トランスポートドメインに関連する苦情に基づく投稿を識別する反復的手法を提案する。
研究目的のための新しいデータセットのリリースとともに、包括的評価を行う。
論文 参考訳(メタデータ) (2020-01-24T22:23:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。