論文の概要: Humanity in the Age of AI: Reassessing 2025's Existential-Risk Narratives
- arxiv url: http://arxiv.org/abs/2512.04119v1
- Date: Mon, 01 Dec 2025 19:37:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:45.793752
- Title: Humanity in the Age of AI: Reassessing 2025's Existential-Risk Narratives
- Title(参考訳): AI時代の人間性:2025年の実在論の再評価
- Authors: Mohamed El Louadi,
- Abstract要約: 我々は、現在進行中の監視資本主義の統合からイデオロギー的な注意をそらすものとして、存在リスク論が主に機能すると主張している。
この仮説は2025年11月に実証された確率よりも投機的金融バブルによって増幅された投機的仮説として残されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Two 2025 publications, "AI 2027" (Kokotajlo et al., 2025) and "If Anyone Builds It, Everyone Dies" (Yudkowsky & Soares, 2025), assert that superintelligent artificial intelligence will almost certainly destroy or render humanity obsolete within the next decade. Both rest on the classic chain formulated by Good (1965) and Bostrom (2014): intelligence explosion, superintelligence, lethal misalignment. This article subjects each link to the empirical record of 2023-2025. Sixty years after Good's speculation, none of the required phenomena (sustained recursive self-improvement, autonomous strategic awareness, or intractable lethal misalignment) have been observed. Current generative models remain narrow, statistically trained artefacts: powerful, opaque, and imperfect, but devoid of the properties that would make the catastrophic scenarios plausible. Following Whittaker (2025a, 2025b, 2025c) and Zuboff (2019, 2025), we argue that the existential-risk thesis functions primarily as an ideological distraction from the ongoing consolidation of surveillance capitalism and extreme concentration of computational power. The thesis is further inflated by the 2025 AI speculative bubble, where trillions in investments in rapidly depreciating "digital lettuce" hardware (McWilliams, 2025) mask lagging revenues and jobless growth rather than heralding superintelligence. The thesis remains, in November 2025, a speculative hypothesis amplified by a speculative financial bubble rather than a demonstrated probability.
- Abstract(参考訳): 2025年の2つの出版物『AI 2027』(Kokotajlo et al , 2025)と『If Anyone Builds It, Everyone Dies』(Yudkowsky & Soares, 2025)は、超知能人工知能が今後10年以内に人類を滅ぼし、滅ぼすであろうと主張している。
どちらも、Good (1965) と Bostrom (2014) によって定式化された古典的な連鎖(インテリジェンス・爆発、超知能、致命的な誤認)に残されている。
本稿は、2023-2025年の実証記録へのリンクについて述べる。
グッドの憶測から60年後、必要となる現象(再帰的な自己改善、自律的な戦略的認識、難解な致命的な過失)は発見されていない。
現在の生成モデルは、強力で不透明で不完全であるが、破滅的なシナリオを実証できる性質を欠いた、狭く統計的に訓練された人工物のままである。
ウィテカー (2025a, 2025b, 2025c) とズボフ (2019, 2025) に続いて、我々は存在リスク論は、監視資本主義の継続的な統合と計算力の極端な集中から、主にイデオロギー的な障害として機能すると主張している。
この論文は2025年のAI投機バブルによってさらに膨らみ、スーパーインテリジェンスではなく、収入の遅れや失業者の成長をマスクする「デジタルレタス」ハードウェア(McWilliams、2025年)の急激な減価化に投資している。
この仮説は2025年11月に実証された確率よりも投機的金融バブルによって増幅された投機的仮説として残されている。
関連論文リスト
- Will Humanity Be Rendered Obsolete by AI? [0.0]
本稿では、人工知能(AI)が人間にもたらす存在リスクを分析し、現在のAIから超知能への軌道を辿る。
機械の指数関数的に増大する認知力と仮説IQを考えると、人類をはるかに超越した知能の倫理的および実在的な含意に対処する。
論文 参考訳(メタデータ) (2025-10-26T20:02:04Z) - Proceedings of 1st Workshop on Advancing Artificial Intelligence through Theory of Mind [69.01047382547794]
この巻には、2025年3月3日にフィラデルフィアで開かれたAAAI 2025で開かれた「心の理論」を通じて、人工知能の進歩に関するワークショップで発表された論文が含まれている。
この巻の目的は、ToMとAI研究コミュニティのためのオープンアクセスと治されたアンソロジーを提供することである。
論文 参考訳(メタデータ) (2025-04-28T17:06:14Z) - Evaluating Intelligence via Trial and Error [59.80426744891971]
本研究では,試行錯誤プロセスにおける失敗回数に基づいて知性を評価するためのフレームワークとして,Survival Gameを紹介した。
フェールカウントの期待と分散の両方が有限である場合、新しい課題に対するソリューションを一貫して見つける能力を示す。
我々の結果は、AIシステムは単純なタスクで自律レベルを達成するが、より複雑なタスクではまだまだ遠いことを示している。
論文 参考訳(メタデータ) (2025-02-26T05:59:45Z) - Hype, Sustainability, and the Price of the Bigger-is-Better Paradigm in AI [67.58673784790375]
AIパラダイムは、科学的に脆弱なだけでなく、望ましくない結果をもたらすものだ、と私たちは主張する。
第一に、効率の改善にもかかわらず、その計算要求はモデルの性能よりも速く増加するため、持続可能ではない。
第二に、健康、教育、気候などの重要な応用は別として、他人を犠牲にして特定の問題に焦点をあてることである。
論文 参考訳(メタデータ) (2024-09-21T14:43:54Z) - Thousands of AI Authors on the Future of AI [0.2694931361631628]
ほとんどの回答者は、AIの進歩の長期的な価値についてかなりの不確実性を示した。
半数以上が、AIに関連する6つのシナリオについて、"実質的"または"極端"の懸念が保証されていることを示唆している。
AIの進歩が人類の未来に良くなるかどうかについては意見の相違があった。
論文 参考訳(メタデータ) (2024-01-05T14:53:09Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Artificial Intelligence and Life in 2030: The One Hundred Year Study on
Artificial Intelligence [74.2630823914258]
このレポートは、AIが今後数年間に影響を及ぼす可能性のある、典型的な都市環境の8つのドメインを調査している。
それは、AIの現状を科学的かつ技術的に正確に描写する一般大衆に提供することを目的としている。
この報告書の費用は、ハーバード大学のBarbara Groszが議長を務めるAI100 Standing Committee(AI100スタンディング委員会)のパネルに提出された。
論文 参考訳(メタデータ) (2022-10-31T18:35:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。