論文の概要: Democracy-in-Silico: Institutional Design as Alignment in AI-Governed Polities
- arxiv url: http://arxiv.org/abs/2508.19562v1
- Date: Wed, 27 Aug 2025 04:44:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.488859
- Title: Democracy-in-Silico: Institutional Design as Alignment in AI-Governed Polities
- Title(参考訳): 民主主義とシリコ:AIが支配する政治におけるアライメントとしての制度設計
- Authors: Trisanth Srinivasan, Santosh Patapati,
- Abstract要約: デモクラシー・イン・シリコ(Democracy-in-Silico)は、先進的なAIエージェントの社会が異なる制度の枠組みの下で自らを統治するエージェントベースのシミュレーションである。
我々は、大規模言語モデル(LLM)を課題とし、外傷性記憶、隠れた議題、心理的トリガーを持つエージェントを具現化することによって、AI時代の人間であることの意味を探求する。
我々は、エージェントが公共福祉よりも自らの権限を優先する不整合行動の定量化を目的として、新しい指標であるPPI(Power-Preservation Index)を提案する。
- 参考スコア(独自算出の注目度): 2.1485350418225244
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces Democracy-in-Silico, an agent-based simulation where societies of advanced AI agents, imbued with complex psychological personas, govern themselves under different institutional frameworks. We explore what it means to be human in an age of AI by tasking Large Language Models (LLMs) to embody agents with traumatic memories, hidden agendas, and psychological triggers. These agents engage in deliberation, legislation, and elections under various stressors, such as budget crises and resource scarcity. We present a novel metric, the Power-Preservation Index (PPI), to quantify misaligned behavior where agents prioritize their own power over public welfare. Our findings demonstrate that institutional design, specifically the combination of a Constitutional AI (CAI) charter and a mediated deliberation protocol, serves as a potent alignment mechanism. These structures significantly reduce corrupt power-seeking behavior, improve policy stability, and enhance citizen welfare compared to less constrained democratic models. The simulation reveals that an institutional design may offer a framework for aligning the complex, emergent behaviors of future artificial agent societies, forcing us to reconsider what human rituals and responsibilities are essential in an age of shared authorship with non-human entities.
- Abstract(参考訳): 本稿では、高度なAIエージェントの社会に複雑な心理学的ペルソナを付与し、異なる制度の枠組みの下で自らを統治するエージェントベースのシミュレーションであるDemocracy-in-Silicoを紹介する。
我々は、大規模言語モデル(LLM)を課題とし、外傷性記憶、隠れた議題、心理的トリガーを持つエージェントを具現化することによって、AI時代の人間であることの意味を探求する。
これらの代理人は、予算危機や資源不足など、様々なストレス下での審議、立法、選挙に従事している。
我々は、エージェントが公共福祉よりも自らの権限を優先する不整合行動の定量化を目的として、新しい指標であるPPI(Power-Preservation Index)を提案する。
本研究は, 制度設計, 特に憲法AI(CAI)チャーターと媒介する熟考プロトコルの組み合わせが, 強力なアライメント機構として機能していることを示す。
これらの構造は、腐敗した電力探索の行動を著しく減らし、政策の安定性を改善し、より制約の少ない民主的モデルと比較して市民の福祉を高める。
シミュレーションにより, 組織設計は, 未来の人工エージェント社会の複雑な, 創発的な行動を調整するための枠組みを提供する可能性が示唆された。
関連論文リスト
- A Moral Agency Framework for Legitimate Integration of AI in Bureaucracies [0.0]
公務員官僚は人工知能(AI)の恩恵を享受しようとする
本稿では,官僚構造におけるAIの合法的な統合のための3点のモラルエージェンシー・フレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-11T17:49:19Z) - When Autonomy Goes Rogue: Preparing for Risks of Multi-Agent Collusion in Social Systems [78.04679174291329]
悪意のあるマルチエージェントシステム(MAS)のリスクをシミュレートするための概念実証手法を提案する。
この枠組みを、誤情報拡散とeコマース詐欺という2つのリスクの高い分野に適用する。
その結果,分散システムの方が,集中型システムよりも悪意ある行動を実行するのに効果的であることが示唆された。
論文 参考訳(メタデータ) (2025-07-19T15:17:30Z) - Toward a Theory of Agents as Tool-Use Decision-Makers [89.26889709510242]
真の自律性は、エージェントが、彼らが知っていること、必要なこと、そしてその知識を効率的に獲得する方法を統治する、一貫性のある疫学の枠組みに根ざす必要がある、と我々は主張する。
本研究では,内的推論と外的行動を等価な疫学ツールとして扱う統一理論を提案し,エージェントが内観と相互作用を体系的に調整することを可能にする。
この視点は、エージェントの設計を単なるアクションエグゼクタから知識駆動インテリジェンスシステムにシフトさせ、適応的で効率的でゴール指向の行動が可能な基礎エージェントを構築するための原則化された道筋を提供する。
論文 参考訳(メタデータ) (2025-06-01T07:52:16Z) - Artificial Intelligence in Government: Why People Feel They Lose Control [44.99833362998488]
行政における人工知能の利用は急速に拡大している。
AIはより効率と応答性を約束するが、政府機能への統合は公正性、透明性、説明責任に関する懸念を提起する。
この記事では、デリゲートの特別事例として、AI導入に関するプリンシパル・エージェント理論を適用します。
論文 参考訳(メタデータ) (2025-05-02T07:46:41Z) - Do LLMs trust AI regulation? Emerging behaviour of game-theoretic LLM agents [61.132523071109354]
本稿では、異なる規制シナリオ下での戦略選択をモデル化する、AI開発者、規制当局、ユーザ間の相互作用について検討する。
我々の研究は、純粋なゲーム理論エージェントよりも「悲観的」な姿勢を採用する傾向にある戦略的AIエージェントの出現する振る舞いを特定する。
論文 参考訳(メタデータ) (2025-04-11T15:41:21Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - AGI, Governments, and Free Societies [0.0]
我々は、AGIが社会を「専制的レヴィアサン」または「従属レヴィアサン」に向かわせるという明確なリスクを生んでいると論じる。
これらのダイナミクスが3つの重要なチャネルを通してどのように展開できるかを分析します。
AGIによる国家の能力増強は、前例のない監視と統制を可能にし、権威主義的な慣行を定着させる可能性がある。
逆に、非国家アクターへのAGI機能の急速な拡散は、国家の正当性と統治性を損なう可能性がある。
論文 参考訳(メタデータ) (2025-02-14T03:55:38Z) - ERMAS: Becoming Robust to Reward Function Sim-to-Real Gaps in
Multi-Agent Simulations [110.72725220033983]
Epsilon-Robust Multi-Agent Simulation (ERMAS)は、このようなマルチエージェントのsim-to-realギャップに対して堅牢なAIポリシーを学ぶためのフレームワークである。
ERMASは、エージェントリスク回避の変化に対して堅牢な税政策を学び、複雑な時間シミュレーションで最大15%社会福祉を改善する。
特に、ERMASは、エージェントリスク回避の変化に対して堅牢な税制政策を学び、複雑な時間シミュレーションにおいて、社会福祉を最大15%改善する。
論文 参考訳(メタデータ) (2021-06-10T04:32:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。