論文の概要: AGI, Governments, and Free Societies
- arxiv url: http://arxiv.org/abs/2503.05710v2
- Date: Thu, 13 Mar 2025 16:15:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 19:20:58.877878
- Title: AGI, Governments, and Free Societies
- Title(参考訳): AGI、政府、自由社会
- Authors: Justin B. Bullock, Samuel Hammond, Seb Krier,
- Abstract要約: 我々は、AGIが社会を「専制的レヴィアサン」または「従属レヴィアサン」に向かわせるという明確なリスクを生んでいると論じる。
これらのダイナミクスが3つの重要なチャネルを通してどのように展開できるかを分析します。
AGIによる国家の能力増強は、前例のない監視と統制を可能にし、権威主義的な慣行を定着させる可能性がある。
逆に、非国家アクターへのAGI機能の急速な拡散は、国家の正当性と統治性を損なう可能性がある。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This paper examines how artificial general intelligence (AGI) could fundamentally reshape the delicate balance between state capacity and individual liberty that sustains free societies. Building on Acemoglu and Robinson's 'narrow corridor' framework, we argue that AGI poses distinct risks of pushing societies toward either a 'despotic Leviathan' through enhanced state surveillance and control, or an 'absent Leviathan' through the erosion of state legitimacy relative to AGI-empowered non-state actors. Drawing on public administration theory and recent advances in AI capabilities, we analyze how these dynamics could unfold through three key channels: the automation of discretionary decision-making within agencies, the evolution of bureaucratic structures toward system-level architectures, and the transformation of democratic feedback mechanisms. Our analysis reveals specific failure modes that could destabilize liberal institutions. Enhanced state capacity through AGI could enable unprecedented surveillance and control, potentially entrenching authoritarian practices. Conversely, rapid diffusion of AGI capabilities to non-state actors could undermine state legitimacy and governability. We examine how these risks manifest differently at the micro level of individual bureaucratic decisions, the meso level of organizational structure, and the macro level of democratic processes. To preserve the narrow corridor of liberty, we propose a governance framework emphasizing robust technical safeguards, hybrid institutional designs that maintain meaningful human oversight, and adaptive regulatory mechanisms.
- Abstract(参考訳): 本稿では,自由社会を支える国家の能力と個人の自由の微妙なバランスを,人工知能(AGI)が根本的に再構築する方法について検討する。
我々は、アセモグルとロビンソンの「狭い回廊」の枠組みに基づいて、AGIは国家の監視と統制の強化を通じて社会を「専制的レヴィアサン」へ向かわせる、あるいはAGIを動力とする非国家アクターに対する国家の正当性の侵食によって「無所属レヴィアサン」へ向かわせるという明確なリスクを生んでいると論じる。
公共行政理論と最近のAI能力の進歩に基づいて、これらのダイナミクスが3つの主要なチャネルを通じてどのように展開されるかを分析する。
我々の分析は、リベラルな制度を不安定にできる特定の障害モードを明らかにしている。
AGIによる国家の能力増強は、前例のない監視と統制を可能にし、権威主義的な慣行を定着させる可能性がある。
逆に、非国家アクターへのAGI機能の急速な拡散は、国家の正当性と統治性を損なう可能性がある。
これらのリスクが、個々の官僚的決定のミクロレベル、組織構造のメソレベル、民主的プロセスのマクロレベルにおいてどのように異なるかを検討する。
自由の狭い回廊を維持するために,ロバストな技術的保護,有意義な人間の監視を維持するハイブリッドな制度設計,適応的な規制機構を強調するガバナンスフレームワークを提案する。
関連論文リスト
- AI and the Transformation of Accountability and Discretion in Urban Governance [1.9152655229960793]
この論文は、人間の裁量を再配置し、特定のタイプの説明責任を再形成するAIの可能性を強調している。
責任あるAI採用のためのフレームワークを推進し、都市のガバナンスが適応的で透明性があり、パブリックな価値と一致し続けることを保証します。
論文 参考訳(メタデータ) (2025-02-18T18:11:39Z) - Decentralized Governance of Autonomous AI Agents [0.0]
ETHOSは、ブロックチェーン、スマートコントラクト、分散自律組織(DAO)など、Web3テクノロジを活用する分散ガバナンス(DeGov)モデルである。
AIエージェントのグローバルレジストリを確立し、動的リスク分類、比例監視、自動コンプライアンス監視を可能にする。
合理性、倫理的根拠、ゴールアライメントの哲学的原則を統合することで、ETHOSは信頼、透明性、参加的ガバナンスを促進するための堅牢な研究アジェンダを作ることを目指している。
論文 参考訳(メタデータ) (2024-12-22T18:01:49Z) - Toward Democracy Levels for AI [4.048639768405042]
我々は、あるドメインにおける決定が民主的に行われる程度を評価するための「民主主義レベル」フレームワークを提供する。
このフレームワークは (i) 民主的なAI、多元的AI、および公的なAIエコシステムのロードマップで定義するために、 (ii) 難しいAIガバナンスの質問に対する意思決定の正当性を高める必要がある組織を指導するために、 (iii) AI組織を評価して責任を負うことを目指す人々による粗悪品として使用することができる。
論文 参考訳(メタデータ) (2024-11-14T06:37:45Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Both eyes open: Vigilant Incentives help Regulatory Markets improve AI
Safety [69.59465535312815]
Regulatory Markets for AIは、適応性を考慮して設計された提案である。
政府はAI企業が達成すべき結果に基づく目標を設定する必要がある。
我々は、規制市場がこの目標を達成するのを阻止するインセンティブについて、非常に簡単に対応できることを警告する。
論文 参考訳(メタデータ) (2023-03-06T14:42:05Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Putting AI Ethics into Practice: The Hourglass Model of Organizational
AI Governance [0.0]
AIシステムの開発と利用を目標とする,AIガバナンスフレームワークを提案する。
このフレームワークは、AIシステムをデプロイする組織が倫理的AI原則を実践に翻訳するのを助けるように設計されている。
論文 参考訳(メタデータ) (2022-06-01T08:55:27Z) - A Framework for Understanding AI-Induced Field Change: How AI
Technologies are Legitimized and Institutionalized [0.0]
本稿では,AIによるフィールド変化を分析し,理解するための概念的枠組みを提案する。
新たなAIエージェントを新しい分野や既存の分野に導入することで、アルゴリズムが組織や機関を(再)形成するダイナミクスが生まれる。
AIが引き起こす分野を取り巻く制度的なインフラは概してほとんど精巧ではないため、今後AIシステムのより広範な制度化に支障をきたす可能性がある。
論文 参考訳(メタデータ) (2021-08-18T14:06:08Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。