論文の概要: The Economics of p(doom): Scenarios of Existential Risk and Economic Growth in the Age of Transformative AI
- arxiv url: http://arxiv.org/abs/2503.07341v1
- Date: Mon, 10 Mar 2025 13:53:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:45:39.057221
- Title: The Economics of p(doom): Scenarios of Existential Risk and Economic Growth in the Age of Transformative AI
- Title(参考訳): p(ドゥーム)の経済学 : 変革的AIの時代における存在リスクと経済成長のシナリオ
- Authors: Jakub Growiec, Klaus Prettner,
- Abstract要約: 主な焦点は、変革型AI(TAI)の出現の可能性である。
公表されたシナリオは、不整合TAIが引き継いだ後のヒトの絶滅(「AIの運命」)から、前例のない経済成長と豊かさ(「ポスト・スカーシティ」)まで様々である。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Recent advances in artificial intelligence (AI) have led to a diverse set of predictions about its long-term impact on humanity. A central focus is the potential emergence of transformative AI (TAI), eventually capable of outperforming humans in all economically valuable tasks and fully automating labor. Discussed scenarios range from human extinction after a misaligned TAI takes over ("AI doom") to unprecedented economic growth and abundance ("post-scarcity"). However, the probabilities and implications of these scenarios remain highly uncertain. Here, we organize the various scenarios and evaluate their associated existential risks and economic outcomes in terms of aggregate welfare. Our analysis shows that even low-probability catastrophic outcomes justify large investments in AI safety and alignment research. We find that the optimizing representative individual would rationally allocate substantial resources to mitigate extinction risk; in some cases, she would prefer not to develop TAI at all. This result highlights that current global efforts in AI safety and alignment research are vastly insufficient relative to the scale and urgency of existential risks posed by TAI. Our findings therefore underscore the need for stronger safeguards to balance the potential economic benefits of TAI with the prevention of irreversible harm. Addressing these risks is crucial for steering technological progress toward sustainable human prosperity.
- Abstract(参考訳): 人工知能(AI)の最近の進歩は、人類に対する長期的な影響について様々な予測を導いている。
変革的AI(TAI)の出現は、最終的には、経済的に価値のあるすべてのタスクにおいて人間を上回り、労働を完全自動化できる可能性に焦点が当てられている。
公表されたシナリオは、不整合TAIが引き継いだ後(「AIの運命」)、前例のない経済成長と豊かさ(「ポスト・スカーシティ」)から、人類の絶滅まで様々である。
しかし、これらのシナリオの確率と含意は非常に不確実なままである。
本稿では,様々なシナリオを整理し,その存在リスクと経済効果を総合福祉の観点から評価する。
我々の分析によると、確率の低い破滅的な結果でさえ、AIの安全性とアライメント研究に大きな投資を正当化している。
最適な代表者は、絶滅リスクを軽減するために、合理的に実質的な資源を割り当てることがわかりました。
この結果は、AIの安全性とアライメント研究における現在のグローバルな取り組みが、TAIによって引き起こされる現実的リスクの規模と緊急性に対して、非常に不十分であることを示している。
以上の結果から,TAIの潜在的経済的利益と不可逆的害防止のバランスをとるため,より強力な安全対策の必要性が浮き彫りとなった。
これらのリスクに対処することは、持続可能な人間の繁栄に向けた技術的進歩を操縦するために不可欠である。
関連論文リスト
- Fully Autonomous AI Agents Should Not be Developed [58.88624302082713]
本稿では,完全自律型AIエージェントを開発すべきではないと主張している。
この立場を支持するために、我々は、従来の科学文献と現在の製品マーケティングから、異なるAIエージェントレベルを規定するために構築する。
分析の結果,システムの自律性によって人へのリスクが増大することが明らかとなった。
論文 参考訳(メタデータ) (2025-02-04T19:00:06Z) - Hype, Sustainability, and the Price of the Bigger-is-Better Paradigm in AI [67.58673784790375]
AIパラダイムは、科学的に脆弱なだけでなく、望ましくない結果をもたらすものだ、と私たちは主張する。
第一に、効率の改善にもかかわらず、その計算要求はモデルの性能よりも速く増加するため、持続可能ではない。
第二に、健康、教育、気候などの重要な応用は別として、他人を犠牲にして特定の問題に焦点をあてることである。
論文 参考訳(メタデータ) (2024-09-21T14:43:54Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - The recessionary pressures of generative AI: A threat to wellbeing [0.0]
生成人工知能(AI)は、パラドックスを示す変換力である。
経済成長に前例のない機会を提供し、経済の安定と社会福祉に重大な脅威をもたらす可能性がある。
本稿では,両者が真である可能性のある条件について考察する。
論文 参考訳(メタデータ) (2024-03-26T05:51:05Z) - Two Types of AI Existential Risk: Decisive and Accumulative [3.5051464966389116]
本稿では,従来の「決定型AI x-リスク仮説」と「累積型AI x-リスク仮説」を対比する。
累積的な視点は、AIリスクに関する一見互換性のない視点を調整できる、と氏は主張する。
論文 参考訳(メタデータ) (2024-01-15T17:06:02Z) - Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Current and Near-Term AI as a Potential Existential Risk Factor [5.1806669555925975]
我々は、現在および短期的な人工知能技術が、現実的なリスクに寄与する可能性があるという考えを問題視する。
我々は、すでに文書化されているAIの効果が、実在するリスク要因として機能する、という仮説を提案する。
私たちの主な貢献は、潜在的なAIリスク要因とそれら間の因果関係の展示です。
論文 参考訳(メタデータ) (2022-09-21T18:56:14Z) - How Do AI Timelines Affect Existential Risk? [0.0]
超知能AI(ASI)作成の遅れは、AIアライメント問題に人類が取り組む時間を増やすことによって、全体の生存リスクを減少させる可能性がある。
ASIは、ほとんどのリスクを減らすことができるため、ASIの作成の遅れは、他の既存のリスクを増大させる可能性がある。
戦争やハードウェアのオーバーハングといった他の要因は、AIのリスクを増大させ、認知の強化はAIのリスクを減少させる可能性がある。
論文 参考訳(メタデータ) (2022-08-30T15:49:11Z) - AI Research Considerations for Human Existential Safety (ARCHES) [6.40842967242078]
負の言葉で言えば、我々は人類が次の世紀のAI開発から直面する現実的なリスクを問う。
Emphprepotenceという,仮説AI技術の鍵となる性質
その後、既存の安全に対する潜在的な利益のために、現代の研究方向の集合が検討される。
論文 参考訳(メタデータ) (2020-05-30T02:05:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。