論文の概要: The Compulsory Imaginary: AGI and Corporate Authority
- arxiv url: http://arxiv.org/abs/2602.23679v1
- Date: Fri, 27 Feb 2026 05:04:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.260056
- Title: The Compulsory Imaginary: AGI and Corporate Authority
- Title(参考訳): The Compulsory Imaginary: AGI and Corporate Authority
- Authors: Emilio Barkett,
- Abstract要約: この論文は、2つの主要なAGI企業が構造的に一貫した修辞的戦略を通じて社会技術的想像論を構築していると主張している。
本論文は、変革的技術開発の最前線において、社会技術想像の枠組みを国家から民間企業へと拡張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper argues that the two leading AGI firms -- OpenAI and Anthropic -- construct sociotechnical imaginaries through a structurally consistent rhetorical strategy, despite meaningful differences in execution. Drawing on Jasanoff (2015)'s framework of sociotechnical imaginaries, the paper analyzes two essays published in late 2024: Sam Altman's "The Intelligence Age" and Dario Amodei's "Machines of Loving Grace." Close comparative reading identifies four shared rhetorical operations: the self-exemption move, which disavows prophetic authority while exercising it; teleological naturalization, which embeds AGI's arrival in narratives of historical inevitability; qualified acknowledgment, which absorbs concessions to risk into an optimistic frame; and implicit indispensability, which positions each firm as central to the imagined future without naming it as a commercial actor. That two competing institutions with different cultures, risk philosophies, and leaders with notably different public personae converge on the same rhetorical architecture suggests the imaginary reflects not only firm-level strategy but the institutional position these firms occupy. The paper extends the sociotechnical imaginaries framework from nation-states to private firms at the frontier of transformative technology development, identifies the discursive mechanism through which corporate authority over technological futures is projected and stabilized, and demonstrates that this mechanism is at minimum structural rather than idiosyncratic. The findings raise the question of what institutional arrangements would make that authority contestable from outside the firms that produce it.
- Abstract(参考訳): 本稿は,AGIの指導的企業であるOpenAI と Anthropic が,実行に有意な違いがあるにも関わらず,構造的に一貫した修辞的戦略によって社会工学的想像論を構築することを主張する。
ジャサノフ(2015年)の社会技術的想像の枠組みに基づいて、この論文は2024年末に出版されたサム・アルトマンの『The Intelligence Age』とダリオ・アモディの『Machines of Loving Grace』の2つのエッセイを分析した。
厳密な比較読解は、4つの共用修辞的操作を識別する: 自称的権威を排除し、それを行使する自称的行動、AGIの到着を歴史的不可避の物語に埋め込んだテレロジカルな自然化、楽観的な枠組みにリスクを吸収する譲歩を吸収する資格的承認、そして暗黙的な不可避性(暗黙的な不可避性)。
異なる文化を持つ2つの競合する機関、リスク哲学、そして明らかに異なる公的な人格を持つ指導者が同じ修辞的建築に集結していることは、虚構が強固な戦略だけでなく、これらの企業が占める機関的な立場を反映していることを示唆している。
本論文は、変革的技術開発の最前線にある国家から民間企業への社会技術想像の枠組みを拡張し、技術的未来に対する企業権威が投射され、安定化されるような分散メカニズムを特定し、このメカニズムが慣用的ではなく最小構造であることを実証する。
この調査結果は、その権限を生産する企業外から競争力のあるものにするために、制度的な取組がどのような役割を果たすのかという疑問を提起する。
関連論文リスト
- The Digital Gorilla: Rebalancing Power in the Age of AI [0.0]
第4条では、このようなシステムを第4の社会的アクターとして扱うことにより、AIガバナンスの概念的基盤を提供する。
このフレームワークは、これらのアクター間の5つのパワーモダリティ間の電力の流れをマッピングするフォー・ソシエタル・アクター・フレームワークを開発している。
連邦化され多中心的なガバナンスアーキテクチャを推進し、動的チェックとバランスを制度化する。
論文 参考訳(メタデータ) (2026-02-23T17:46:54Z) - Operational Agency: A Permeable Legal Fiction for Tracing Culpability in AI Systems [0.31061678033205636]
本条では、後述の枠組み及び運用機関グラフ(OAG)として構成された、通用可能な法的フィクションについて紹介する。
OAはAIの観測可能な運用特性を評価する。
OAGは、これらの特徴を因果グラフに埋め込んで、開発者、ファインタウンタ、デプロイ者、ユーザ間の計算可能性を追跡し、評価することで、その分析を運用する。
論文 参考訳(メタデータ) (2026-02-20T01:49:03Z) - Mirror: A Multi-Agent System for AI-Assisted Ethics Review [104.3684024153469]
MirrorはAIによる倫理的レビューのためのエージェントフレームワークである。
倫理的推論、構造化された規則解釈、統合されたアーキテクチャ内でのマルチエージェントの議論を統合する。
論文 参考訳(メタデータ) (2026-02-09T03:38:55Z) - From Abstract Threats to Institutional Realities: A Comparative Semantic Network Analysis of AI Securitisation in the US, EU, and China [0.0]
主要な司法管轄区域は、安全、リスク、説明責任といった概念を修辞的に集約するが、それらの規制の枠組みは基本的には分断され、相互に理解できないままである。
本論では, この断片化は, 地政学的対立, 制度的複雑性, 楽器選択のみでは説明できないと論じる。
セマンティック・ネットワーク分析を用いて, セマンティック・アーキテクチャに安全性などの概念が組み込まれていることを追跡した。
論文 参考訳(メタデータ) (2026-01-07T17:12:03Z) - High vs. Low AGI: Ontology and Conceptual Taxonomy for Geopolitical Coherence [0.0]
本稿では,低AGIと高AGIを区別する分類法を提案する。
コンストラクショナル・レベルの理論のレンズを通して見る「ハイ・ロー・政治」という国際関係の概念に基づいている。
論文 参考訳(メタデータ) (2025-10-06T14:11:13Z) - The Stories We Govern By: AI, Risk, and the Power of Imaginaries [0.0]
本稿では,人工知能(AI)の社会技術的想像力の競合が,ガバナンス決定や規制制約をいかに形成するかを検討する。
我々は、破滅的なAGIシナリオを強調する現実的リスク擁護者、AIを解き放たれる変革的な力として描写する加速主義者、今日の体系的不平等に根ざした害を先導する批判的なAI学者の3つの主要な物語群を分析した。
これらの物語が、リスクに関する異なる仮定を組み込んでおり、代替ガバナンスアプローチの空間を狭めることで、政策策定プロセスに進展する可能性があることを、我々の研究で明らかにしている。
論文 参考訳(メタデータ) (2025-08-15T09:57:56Z) - Societal and technological progress as sewing an ever-growing, ever-changing, patchy, and polychrome quilt [44.522343543870804]
我々は、道徳的多様性の持続性を見落としているようなシステムが、抵抗を引き起こし、信頼を失わせ、制度を不安定化するのではないかと心配している。
理想的な条件下では、合理的なエージェントは単一の倫理上の会話の限界に収束するという考えである。
我々は、この前提をオプション的かつ疑わしいものとみなし、紛争理論、文化進化、マルチエージェントシステム、制度経済学に基づく代替アプローチとして、適切性枠組みと呼ぶものを提案する。
論文 参考訳(メタデータ) (2025-05-08T12:55:07Z) - Agency Is Frame-Dependent [94.91580596320331]
エージェンシーは、目標に向かって成果を操縦するシステムの能力である。
私たちは、エージェンシーは基本的にフレーム依存であると主張している。
我々はあらゆる基礎科学がフレーム依存を必要とすると結論付けている。
論文 参考訳(メタデータ) (2025-02-06T08:34:57Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。