論文の概要: The Stories We Govern By: AI, Risk, and the Power of Imaginaries
- arxiv url: http://arxiv.org/abs/2508.11729v1
- Date: Fri, 15 Aug 2025 09:57:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.344544
- Title: The Stories We Govern By: AI, Risk, and the Power of Imaginaries
- Title(参考訳): AI、リスク、イマジナリーの力
- Authors: Ninell Oldenburg, Gleb Papyshev,
- Abstract要約: 本稿では,人工知能(AI)の社会技術的想像力の競合が,ガバナンス決定や規制制約をいかに形成するかを検討する。
我々は、破滅的なAGIシナリオを強調する現実的リスク擁護者、AIを解き放たれる変革的な力として描写する加速主義者、今日の体系的不平等に根ざした害を先導する批判的なAI学者の3つの主要な物語群を分析した。
これらの物語が、リスクに関する異なる仮定を組み込んでおり、代替ガバナンスアプローチの空間を狭めることで、政策策定プロセスに進展する可能性があることを、我々の研究で明らかにしている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper examines how competing sociotechnical imaginaries of artificial intelligence (AI) risk shape governance decisions and regulatory constraints. Drawing on concepts from science and technology studies, we analyse three dominant narrative groups: existential risk proponents, who emphasise catastrophic AGI scenarios; accelerationists, who portray AI as a transformative force to be unleashed; and critical AI scholars, who foreground present-day harms rooted in systemic inequality. Through an analysis of representative manifesto-style texts, we explore how these imaginaries differ across four dimensions: normative visions of the future, diagnoses of the present social order, views on science and technology, and perceived human agency in managing AI risks. Our findings reveal how these narratives embed distinct assumptions about risk and have the potential to progress into policy-making processes by narrowing the space for alternative governance approaches. We argue against speculative dogmatism and for moving beyond deterministic imaginaries toward regulatory strategies that are grounded in pragmatism.
- Abstract(参考訳): 本稿では,人工知能(AI)の社会技術的想像力の競合が,ガバナンス決定や規制制約をいかに形成するかを検討する。
科学と技術研究の概念に基づいて、我々は、破滅的なAGIシナリオを強調する実在リスク擁護者、AIを解き放つ変革的な力として描写する加速主義者、今日のシステム的不平等に根ざした害を先導する批判的なAI学者の3つの主要な物語群を分析します。
代表的マニフェストスタイルのテキストの分析を通じて、これらの想像は、未来の規範的なビジョン、現在の社会的秩序の診断、科学と技術に対する見解、AIリスクの管理における人間機関の認識の4つの側面でどのように異なるのかを考察する。
これらの物語が、リスクに関する異なる仮定を組み込んでおり、代替ガバナンスアプローチの空間を狭めることで、政策策定プロセスに進展する可能性があることを、我々の研究で明らかにしている。
我々は、投機的教義主義に反対し、プラグマティズムに根ざした規制戦略への決定論的想像を超えた動きを論じる。
関連論文リスト
- Responsible AI: The Good, The Bad, The AI [1.932555230783329]
本稿では,戦略的情報システムのレンズを通して,AIの二重性に関する包括的考察を行う。
我々は,(1)AI導入の戦略的利益,(2)固有のリスクと意図しない結果,(3)組織がこれらの緊張をナビゲートできるガバナンスメカニズムを具体化する,パラドックスベースの責任AIガバナンス(PRAIG)フレームワークを開発する。
この論文は、責任あるAIガバナンスの奨学金を進めるための研究課題で締めくくっている。
論文 参考訳(メタデータ) (2026-01-28T22:33:27Z) - Why They Disagree: Decoding Differences in Opinions about AI Risk on the Lex Fridman Podcast [0.0]
本稿では,AIリスクに関する現代の議論を分析する。
実存リスク(Xリスク)の観点の違いは、設計と複雑なシステムの出現に関する因果的前提の違いから生じる。
これらの2つのAIリスクの相違は、2つの性質を共有しているように見える。
論文 参考訳(メタデータ) (2025-12-06T08:48:30Z) - AI Deception: Risks, Dynamics, and Controls [153.71048309527225]
このプロジェクトは、AI偽装分野の包括的で最新の概要を提供する。
我々は、動物の偽装の研究からシグナル伝達理論に基づく、AI偽装の正式な定義を同定する。
我々は,AI偽装研究の展望を,偽装発生と偽装処理の2つの主要な構成要素からなる偽装サイクルとして整理する。
論文 参考訳(メタデータ) (2025-11-27T16:56:04Z) - Empirical AI Ethics: Reconfiguring Ethics towards a Situated, Plural, and Transformative Approach [0.0]
批判者はAI倫理がしばしば「倫理洗浄」の実践を通じて企業利益に寄与すると主張している
本稿では,AI倫理の分野を批判的に問うために,科学技術研究の視点を採用する。
論文 参考訳(メタデータ) (2025-09-22T12:58:15Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Epistemic Scarcity: The Economics of Unresolvable Unknowns [0.0]
我々は、AIシステムは経済調整の中核的な機能を実行することができないと主張している。
我々は、構成主義的合理主義の拡張として、支配的な倫理的AIフレームワークを批判する。
論文 参考訳(メタデータ) (2025-07-02T08:46:24Z) - Exploring the Societal and Economic Impacts of Artificial Intelligence: A Scenario Generation Methodology [0.0]
インパクト・不確実性マトリックスを適用してAIの統合と導入に影響を与える重要な要因を分類・分析する。
提案手法は,学術データベースのクエリ,新たなトレンドとトピックの識別,および影響不確実性フレームワークへの分類を含む。
論文では、AIが大きな変化をもたらす可能性のある重要な領域を特定し、これらの洞察に基づいて将来のシナリオを概説する。
論文 参考訳(メタデータ) (2025-03-31T18:49:46Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
我々は人間の知恵について知られているものを調べ、そのAIのビジョンをスケッチする。
AIシステムは特にメタ認知に苦しむ。
スマートAIのベンチマーク、トレーニング、実装について論じる。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Manipulation Risks in Explainable AI: The Implications of the
Disagreement Problem [0.0]
返却された説明を彼らの利益に適応させるために、プロバイダがデプロイできるさまざまな戦略の概要を提供します。
プロバイダが関与しなければならないいくつかの目標と具体的なシナリオを分析します。
これらの手法が広く実施される前に,今,この問題を調査し,緩和策を提案することが重要である。
論文 参考訳(メタデータ) (2023-06-24T07:21:28Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。