論文の概要: Rational Silence and False Polarization: How Viewpoint Organizations and Recommender Systems Distort the Expression of Public Opinion
- arxiv url: http://arxiv.org/abs/2403.06264v2
- Date: Thu, 28 Nov 2024 21:44:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 20:28:07.106848
- Title: Rational Silence and False Polarization: How Viewpoint Organizations and Recommender Systems Distort the Expression of Public Opinion
- Title(参考訳): 合理的サイレンスと偽分極--視点組織とレコメンダシステムが世論の表現を歪める方法
- Authors: Atrisha Sarkar, Gillian K. Hadfield,
- Abstract要約: オンライン談話の観察者がコミュニティの見解を信じるようになると、プラットフォームがどう影響するかを示す。
我々は,イデオロギー組織からのシグナルが修辞的強度の増大を促し,中程度の利用者の「合理的な沈黙」につながることを示す。
我々は、イデオロギー組織からの信号への露出を減らすなど、実装可能な実践的な戦略を特定できる。
- 参考スコア(独自算出の注目度): 4.419843514606336
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI-based social media platforms has already transformed the nature of economic and social interaction. AI enables the massive scale and highly personalized nature of online information sharing that we now take for granted. Extensive attention has been devoted to the polarization that social media platforms appear to facilitate. However, a key implication of the transformation we are experiencing due to these AI-powered platforms has received much less attention: how platforms impact what observers of online discourse come to believe about community views. These observers include policymakers and legislators, who look to social media to gauge the prospects for policy and legislative change, as well as developers of AI models trained on large-scale internet data, whose outputs may similarly reflect a distorted view of public opinion. In this paper, we present a nested game-theoretic model to show how observed online opinion is produced by the interaction of the decisions made by users about whether and with what rhetorical intensity to share their opinions on a platform, the efforts of organizations (such as traditional media and advocacy organizations) that seek to encourage or discourage opinion-sharing online, and the operation of AI-powered recommender systems controlled by social media platforms. We show that signals from ideological organizations encourage an increase in rhetorical intensity, leading to the 'rational silence' of moderate users. This, in turn, creates a polarized impression of where average opinions lie. We also show that this observed polarization can also be amplified by recommender systems that encourage the formation of communities online that end up seeing a skewed sample of opinion. We also identify practical strategies platforms can implement, such as reducing exposure to signals from ideological organizations and a tailored approach to content moderation.
- Abstract(参考訳): AIベースのソーシャルメディアプラットフォームは、すでに経済と社会の相互作用の性質を変えている。
AIは、オンライン情報共有の大規模かつ高度にパーソナライズされた性質を可能にする。
ソーシャルメディアプラットフォームが促進しているように見える分極に、広範囲の注意が注がれている。
しかし、これらのAIプラットフォームによって私たちが経験している変革の重要な意味は、プラットフォームがコミュニティの見解に対してオンライン談話のオブザーバーが信じるものにどのように影響するかである。
これらのオブザーバーには、政策立案者や立法者がソーシャルメディアに目を向け、政策や法律の変更の見通しを判断するだけでなく、大規模なインターネットデータで訓練されたAIモデルの開発者も含まれており、そのアウトプットも同様に、世論の歪んだ見方を反映している可能性がある。
本稿では、プラットフォーム上で意見を共有するための修辞的強度、オンライン上で意見共有を奨励または阻止しようとする組織(伝統的メディアや擁護団体など)の取り組み、ソーシャルメディアプラットフォームによって制御されるAIを活用した推薦システムの運用について、ユーザの判断の相互作用によって、オンラインの意見がいかに観察されるかを示すネスト型ゲーム理論モデルを提案する。
我々は,イデオロギー組織からのシグナルが修辞的強度の増大を促し,中程度の利用者の「合理的な沈黙」につながることを示す。
これにより、平均的な意見がどこにあるかという偏極的な印象が生まれる。
また, この偏光観測は, オンラインコミュニティの形成を促すレコメンデーションシステムによっても増幅されうることを示す。
また、イデオロギー的な組織からの信号への露出を減らすことや、コンテンツモデレーションに対する調整されたアプローチなど、実装可能な実践的な戦略についても検討する。
関連論文リスト
- Emergence of human-like polarization among large language model agents [61.622596148368906]
我々は、何千もの大規模言語モデルエージェントを含むネットワーク化されたシステムをシミュレートし、それらの社会的相互作用を発見し、人間のような偏極をもたらす。
人間とLLMエージェントの類似性は、社会的分極を増幅する能力に関する懸念を提起するだけでなく、それを緩和するための有効な戦略を特定するための貴重なテストベッドとして機能する可能性も持っている。
論文 参考訳(メタデータ) (2025-01-09T11:45:05Z) - IOHunter: Graph Foundation Model to Uncover Online Information Operations [8.532129691916348]
本稿では,情報操作を編成するユーザ,いわゆるIOドライバを,さまざまな影響キャンペーンを通じて識別する手法を提案する。
我々のフレームワークはIOHunterと呼ばれ、Language ModelsとGraph Neural Networksの強みを利用して、教師付き、ほとんど教師なし、クロスIOコンテキストにおける一般化を改善する。
本研究は,ソーシャルメディアプラットフォーム上でのIO検出に特化して,グラフファウンデーションモデルを開発するための一歩となる。
論文 参考訳(メタデータ) (2024-12-19T09:14:24Z) - Who Sets the Agenda on Social Media? Ideology and Polarization in Online Debates [34.82692226532414]
今回の研究では、気候変動、新型コロナウイルス、ロシア・ウクライナ戦争という3つの世界的議論から、大規模なTwitterデータを分析します。
本研究は,メディアや活動家など特定のカテゴリーのアクターによる議論ではなく,イデオロギー的アライメントによる議論が主であることを示す。
論文 参考訳(メタデータ) (2024-12-06T16:48:22Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [58.130894823145205]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - From Experts to the Public: Governing Multimodal Language Models in Politically Sensitive Video Analysis [48.14390493099495]
本稿では,大規模言語モデル(MM-LLM)の個人的および集団的検討を通じて,ガバナンスについて検討する。
筆者らは,まず10人のジャーナリストにインタビューを行い,専門家によるビデオ解釈のベースライン理解を確立した。第2に,包括的.AIを用いた議論に携わる一般市民114名を対象にした。
論文 参考訳(メタデータ) (2024-09-15T03:17:38Z) - Constraining Participation: Affordances of Feedback Features in Interfaces to Large Language Models [49.74265453289855]
大規模言語モデル(LLM)は、コンピュータ、Webブラウザ、ブラウザベースのインターフェースによるインターネット接続を持つ人なら誰でも利用できるようになった。
本稿では,ChatGPTインタフェースにおける対話型フィードバック機能の可能性について検討し,ユーザ入力の形状やイテレーションへの参加について分析する。
論文 参考訳(メタデータ) (2024-08-27T13:50:37Z) - Carthago Delenda Est: Co-opetitive Indirect Information Diffusion Model
for Influence Operations on Online Social Media [6.236019068888737]
DluvsionはTwitterのようなソーシャルメディア上で、競合する情報伝達活動のためのエージェントベースモデルである。
我々は、スタンス導入に影響を与えるエンゲージメント指標、情報の非社会的結びつき、拡散可能なスタンスとしての中立性、およびメディアのフレーミング効果に類似し、スタンス伝播に関して共生的なテーマについて説明する。
論文 参考訳(メタデータ) (2024-02-02T21:15:24Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - On the steerability of large language models toward data-driven personas [98.9138902560793]
大規模言語モデル(LLM)は、特定のグループや集団の意見が不足している偏りのある応答を生成することが知られている。
本稿では, LLM を用いて特定の視点の制御可能な生成を実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z) - Are Personalized Stochastic Parrots More Dangerous? Evaluating Persona
Biases in Dialogue Systems [103.416202777731]
我々は、対話モデルが採用するペルソナに付随する有害な行動の感度であると定義する「ペルソナバイアス」について検討する。
我々は,人格バイアスを有害な表現と有害な合意のバイアスに分類し,攻撃性,有害継続性,関連性,ステレオタイプ合意,および有害合意の5つの側面において,人格バイアスを測定する包括的な評価枠組みを確立する。
論文 参考訳(メタデータ) (2023-10-08T21:03:18Z) - Disinformation Echo-Chambers on Facebook [0.27195102129095]
この章では、Facebookグループ内の協調的不正確な振る舞いを特定するために設計された計算手法を紹介する。
この方法は、投稿、URL、画像の分析に焦点を当て、一部のFacebookグループが組織されたキャンペーンに従事していることを明らかにした。
これらのグループは同一のコンテンツを同時に共有し、ユーザーが嘘や誤解を招く物語を繰り返し遭遇することを露呈する可能性がある。
論文 参考訳(メタデータ) (2023-09-14T14:33:16Z) - Social Diversity Reduces the Complexity and Cost of Fostering Fairness [63.70639083665108]
不完全な情報や公平性の柔軟な基準を前提とした干渉機構の効果について検討する。
多様性の役割を定量化し、情報収集の必要性を減らす方法を示す。
この結果から,多様性が変化し,公正性向上を目指す機関に新たなメカニズムが開放されることが示唆された。
論文 参考訳(メタデータ) (2022-11-18T21:58:35Z) - Cascade-based Echo Chamber Detection [16.35164446890934]
ソーシャルメディアのエコーチャンバーは かなり精査されています
本稿では,ソーシャルメディアのフットプリントを説明する確率的生成モデルを提案する。
本研究では,姿勢検出や将来の伝搬予測などの補助的予測タスクにおいて,モデルが精度を向上させる方法を示す。
論文 参考訳(メタデータ) (2022-08-09T09:30:38Z) - Adherence to Misinformation on Social Media Through Socio-Cognitive and
Group-Based Processes [79.79659145328856]
誤報が広まると、これはソーシャルメディア環境が誤報の付着を可能にするためである、と我々は主張する。
偏光と誤情報付着が密接な関係にあると仮定する。
論文 参考訳(メタデータ) (2022-06-30T12:34:24Z) - The drivers of online polarization: fitting models to data [0.0]
エコーチャンバー効果と意見偏光は、情報消費における人間のバイアスや、フィードアルゴリズムによって生成されるパーソナライズされたレコメンデーションなど、いくつかの要因によって引き起こされる可能性がある。
これまでは主に意見力学モデルを用いて、分極とエコーチャンバーの出現の背後にあるメカニズムを探索してきた。
シミュレーションから得られた意見分布とソーシャルメディア上で測定した意見分布を数値的に比較する手法を提案する。
論文 参考訳(メタデータ) (2022-05-31T17:00:41Z) - Opinion dynamics in social networks: From models to data [0.0]
意見は集団行動を形成し、民主的プロセス、規範の進化、文化の変化に重要な役割を果たしている。
何十年にもわたって、社会科学と自然科学の研究者たちは、個人の視点や社会的交流の変化が、コンセンサスや偏光といった世論の根本的状態にどのようにつながるかを説明しようとしてきた。
論文 参考訳(メタデータ) (2022-01-04T19:21:26Z) - Perspective-taking to Reduce Affective Polarization on Social Media [11.379010432760241]
ブラウザエクステンションを通じてランダムなフィールド実験をTwitter上で1,611人の参加者に展開する。
参加者を「アウトグループ」フィードに露出するだけでエンゲージメントが向上するが、他の人々が政治的見解を持っている理由の理解は得られない。
参加者に不一致を思い出させるよう促すことによって、親しみやすく共感的な言葉で経験をフレーミングすることは、エンゲージメントに影響を与えず、反対の見解を理解する能力を高める。
論文 参考訳(メタデータ) (2021-10-11T20:25:10Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Towards control of opinion diversity by introducing zealots into a
polarised social group [7.9603223299524535]
偏極社会集団における意見の多様性に影響を与えるか、制御する方法を探究する。
我々は、ユーザーが二項意見を持ち、接続する他のものに基づいて信条を何度も更新する投票モデルを活用する。
平均的な意見を任意の目標値にシフトするために、Zealotを偏極ネットワークに注入する。
論文 参考訳(メタデータ) (2020-06-12T15:27:30Z) - An Iterative Approach for Identifying Complaint Based Tweets in Social
Media Platforms [76.9570531352697]
本稿では,トランスポートドメインに関連する苦情に基づく投稿を識別する反復的手法を提案する。
研究目的のための新しいデータセットのリリースとともに、包括的評価を行う。
論文 参考訳(メタデータ) (2020-01-24T22:23:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。