論文の概要: Polarization by Design: How Elites Could Shape Mass Preferences as AI Reduces Persuasion Costs
- arxiv url: http://arxiv.org/abs/2512.04047v1
- Date: Wed, 03 Dec 2025 18:33:26 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 11:56:10.547622
- Title: Polarization by Design: How Elites Could Shape Mass Preferences as AI Reduces Persuasion Costs
- Title(参考訳): デザインによる偏光:AIが説得コストを減らし、エリートが大量選好を形作る方法
- Authors: Nadav Kunievsky,
- Abstract要約: 民主主義においては、主要な政策決定は通常、何らかの形態の多数派またはコンセンサスを必要とするため、エリートは統治のために大衆の支持を確保する必要がある。
我々は,政策選好の分布を,説得コストと過半数ルール制約を条件として,どの程度の政策選好を形成すべきかを選択するモデルを開発する。
一人のエリートで、最適な介入は、社会をより分極化された意見プロファイル(偏極プル)へと押し上げる傾向がある。」
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In democracies, major policy decisions typically require some form of majority or consensus, so elites must secure mass support to govern. Historically, elites could shape support only through limited instruments like schooling and mass media; advances in AI-driven persuasion sharply reduce the cost and increase the precision of shaping public opinion, making the distribution of preferences itself an object of deliberate design. We develop a dynamic model in which elites choose how much to reshape the distribution of policy preferences, subject to persuasion costs and a majority rule constraint. With a single elite, any optimal intervention tends to push society toward more polarized opinion profiles - a ``polarization pull'' - and improvements in persuasion technology accelerate this drift. When two opposed elites alternate in power, the same technology also creates incentives to park society in ``semi-lock'' regions where opinions are more cohesive and harder for a rival to overturn, so advances in persuasion can either heighten or dampen polarization depending on the environment. Taken together, cheaper persuasion technologies recast polarization as a strategic instrument of governance rather than a purely emergent social byproduct, with important implications for democratic stability as AI capabilities advance.
- Abstract(参考訳): 民主主義においては、主要な政策決定は通常、何らかの形態の多数派またはコンセンサスを必要とするため、エリートは統治のために大衆の支持を確保する必要がある。
歴史的には、エリートは学校やマスメディアのような限られた手段で支援を形作ることができ、AIによる説得の進歩は、コストを劇的に削減し、世論を形作る精度を高め、好みの分布自体を故意にデザインする対象にする。
我々は,政策選好の分布を,説得コストと過半数ルール制約を条件としてどの程度の頻度で作り直すかを選択するダイナミックモデルを開発する。
一つのエリートでは、最適な介入は、社会をより偏極化された世論プロファイル(「偏極プル」)へと押し上げ、説得技術の改善がこの流れを加速させる傾向にある。
2人の対立するエリートが権力を交代すると、同じ技術が「セミロック」地域で社会を遊説するインセンティブを生み出す。
同時に、安価な説得技術は、純粋に創発的な社会的副産物ではなく、ガバナンスの戦略的手段として偏極を再認識し、AI能力が進歩するにつれて民主主義的安定性に重要な意味を持つ。
関連論文リスト
- Infrastructuring Contestability: A Framework for Community-Defined AI Value Pluralism [0.0]
AI駆動システムの普及は、人間とコンピュータのインタラクションとコンピュータが支援する協調作業に課題をもたらす。
集中型のトップダウン定義に依存している現在の価値アライメントへのアプローチには、意味のある競争性のためのメカニズムが欠如している。
本稿では,このギャップに対処する社会技術フレームワークであるCommunity-Defined AI Value Pluralismを紹介する。
論文 参考訳(メタデータ) (2025-07-07T16:45:50Z) - Resource Rational Contractualism Should Guide AI Alignment [69.07915246220985]
契約主義的アライメントは、多様な利害関係者が支持する合意の中で決定を下すことを提案する。
我々は、AIシステムが合理的な当事者が形成する合意を近似する枠組みであるリソース・リアリズムを提案する。
RRC対応エージェントは、効率的に機能するだけでなく、変化する人間の社会世界への適応と解釈を動的に行うことができる。
論文 参考訳(メタデータ) (2025-06-20T18:57:13Z) - Societal and technological progress as sewing an ever-growing, ever-changing, patchy, and polychrome quilt [44.522343543870804]
我々は、道徳的多様性の持続性を見落としているようなシステムが、抵抗を引き起こし、信頼を失わせ、制度を不安定化するのではないかと心配している。
理想的な条件下では、合理的なエージェントは単一の倫理上の会話の限界に収束するという考えである。
我々は、この前提をオプション的かつ疑わしいものとみなし、紛争理論、文化進化、マルチエージェントシステム、制度経済学に基づく代替アプローチとして、適切性枠組みと呼ぶものを提案する。
論文 参考訳(メタデータ) (2025-05-08T12:55:07Z) - Political Neutrality in AI Is Impossible- But Here Is How to Approximate It [97.59456676216115]
真の政治的中立性は、主観的な性質と、AIトレーニングデータ、アルゴリズム、ユーザーインタラクションに固有のバイアスのため、実現可能でも普遍的に望ましいものではない、と我々は主張する。
我々は、政治的中立性の「近似」という用語を使って、到達不可能な絶対値から達成不可能で実用的なプロキシへ焦点を移す。
論文 参考訳(メタデータ) (2025-02-18T16:48:04Z) - Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では,大言語モデル(LLM)におけるパルチザンバイアスが政治的意見や意思決定に与える影響について検討する。
その結果,党派偏見モデルに曝露した参加者は,LLMの偏見と一致した意見を取り入れ,決定を下す可能性が有意に高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - Hype, Sustainability, and the Price of the Bigger-is-Better Paradigm in AI [67.58673784790375]
AIパラダイムは、科学的に脆弱なだけでなく、望ましくない結果をもたらすものだ、と私たちは主張する。
第一に、効率の改善にもかかわらず、その計算要求はモデルの性能よりも速く増加するため、持続可能ではない。
第二に、健康、教育、気候などの重要な応用は別として、他人を犠牲にして特定の問題に焦点をあてることである。
論文 参考訳(メタデータ) (2024-09-21T14:43:54Z) - Artificial intelligence, rationalization, and the limits of control in the public sector: the case of tax policy optimization [0.0]
AIシステムに対する批判の大部分が、Weberianの合理化の中心にあるよく知られた緊張から生まれたものであることを示す。
分析の結果,社会的・経済的平等を促進する機械的税制の構築が可能であることが示唆された。
また、AIによるポリシーの最適化は、他の競合する政治的価値観を排除することによってもたらされる、とも強調している。
論文 参考訳(メタデータ) (2024-07-07T11:54:14Z) - Rational Silence and False Polarization: How Viewpoint Organizations and Recommender Systems Distort the Expression of Public Opinion [4.419843514606336]
オンライン談話の観察者がコミュニティの見解を信じるようになると、プラットフォームがどう影響するかを示す。
我々は,イデオロギー組織からのシグナルが修辞的強度の増大を促し,中程度の利用者の「合理的な沈黙」につながることを示す。
我々は、イデオロギー組織からの信号への露出を減らすなど、実装可能な実践的な戦略を特定できる。
論文 参考訳(メタデータ) (2024-03-10T17:02:19Z) - Perspective-taking to Reduce Affective Polarization on Social Media [11.379010432760241]
ブラウザエクステンションを通じてランダムなフィールド実験をTwitter上で1,611人の参加者に展開する。
参加者を「アウトグループ」フィードに露出するだけでエンゲージメントが向上するが、他の人々が政治的見解を持っている理由の理解は得られない。
参加者に不一致を思い出させるよう促すことによって、親しみやすく共感的な言葉で経験をフレーミングすることは、エンゲージメントに影響を与えず、反対の見解を理解する能力を高める。
論文 参考訳(メタデータ) (2021-10-11T20:25:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。