論文の概要: The three main doctrines on the future of AI
- arxiv url: http://arxiv.org/abs/2509.20050v1
- Date: Wed, 24 Sep 2025 12:17:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.804378
- Title: The three main doctrines on the future of AI
- Title(参考訳): AIの未来に関する三大教義
- Authors: Alex Amadori, Eva Behrens, Gabriel Alfour, Andrea Miotti,
- Abstract要約: 支配主義は、十分に進歩したAIを作る最初の俳優が圧倒的な戦略的優位性に達すると予測している。
絶滅の教義は、人類がAIIのコントロールを失う可能性があり、人類の絶滅や恒久的な非武装化につながることを予想している。
代替教義は、AIが現在人間が行っているタスクの多くを自動化すると予測するが、人間の文明を根本的に作り直したり終わらせたりするほど変革的ではない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper develops a taxonomy of expert perspectives on the risks and likely consequences of artificial intelligence, with particular focus on Artificial General Intelligence (AGI) and Artificial Superintelligence (ASI). Drawing from primary sources, we identify three predominant doctrines: (1) The dominance doctrine, which predicts that the first actor to create sufficiently advanced AI will attain overwhelming strategic superiority sufficient to cheaply neutralize its opponents' defenses; (2) The extinction doctrine, which anticipates that humanity will likely lose control of ASI, leading to the extinction of the human species or its permanent disempowerment; (3) The replacement doctrine, which forecasts that AI will automate a large share of tasks currently performed by humans, but will not be so transformative as to fundamentally reshape or bring an end to human civilization. We examine the assumptions and arguments underlying each doctrine, including expectations around the pace of AI progress and the feasibility of maintaining advanced AI under human control. While the boundaries between doctrines are sometimes porous and many experts hedge across them, this taxonomy clarifies the core axes of disagreement over the anticipated scale and nature of the consequences of AI development.
- Abstract(参考訳): 本稿では、人工知能(AGI)と人工超知能(ASI)に焦点をあて、人工知能のリスクと潜在的な結果に関する専門的な視点の分類法を開発する。
主要な資料から,(1) 十分に進んだAIを創出する最初のアクターが,敵の防衛を安価に中立化するのに十分な戦略的優位性に達すると予測する支配主義,(2) 人類がAIのコントロールを失う可能性が高いと予測する絶滅教義,(3) 人類が現在行っているタスクの多くをAIが自動化すると予想する代替教義。
我々は、AIの進歩のペースに関する期待や、人間の制御下で高度なAIを維持する可能性など、それぞれの教義の根底にある仮定と議論について検討する。
教義の境界は時として多孔質であり、多くの専門家がそれらにまたがっているが、この分類学はAI開発の結果のスケールと性質について、意見の相違の核となる軸を明確にしている。
関連論文リスト
- A Beautiful Mind: Principles and Strategies for AI-Augmented Human Reasoning [0.0]
本稿では,人間中心型拡張推論パラダイムについて概説する。
人間の推論とAIアルゴリズムのブリッジとして機能するインタラクションモードの例を提供する。
論文 参考訳(メタデータ) (2025-02-05T20:57:29Z) - Aligning Generalisation Between Humans and Machines [74.120848518198]
AI技術は、科学的発見と意思決定において人間を支援することができるが、民主主義と個人を妨害することもある。
AIの責任ある使用と人間-AIチームへの参加は、AIアライメントの必要性をますます示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Rolling in the deep of cognitive and AI biases [1.556153237434314]
我々は、AIが設計、開発、デプロイされる状況とは切り離せない社会技術システムとして理解する必要があると論じる。
我々は、人間の認知バイアスがAIフェアネスの概観の中核となる急進的な新しい方法論に従うことで、この問題に対処する。
我々は、人間にAIバイアスを正当化する新しいマッピングを導入し、関連する公正度と相互依存を検出する。
論文 参考訳(メタデータ) (2024-07-30T21:34:04Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - Intent-aligned AI systems deplete human agency: the need for agency
foundations research in AI safety [2.3572498744567127]
人間の意図の一致は、安全なAIシステムには不十分である、と我々は主張する。
我々は、人類の長期的機関の保存がより堅牢な標準であると論じている。
論文 参考訳(メタデータ) (2023-05-30T17:14:01Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Modelos din\^amicos aplicados \`a aprendizagem de valores em
intelig\^encia artificial [0.0]
この地域の数人の研究者が、人間と環境の保存のための堅牢で有益な、安全なAIの概念を開発した。
人工知能エージェントが人間の価値観に合わせた価値を持っていることは、最も重要である。
おそらくこの難しさは、認知的手法を使って価値を表現するという問題に対処する方法から来ています。
論文 参考訳(メタデータ) (2020-07-30T00:56:11Z) - On Controllability of AI [1.370633147306388]
我々は、高度なAIを完全に制御できないことを示す証拠だけでなく、議論も提示する。
人類の未来とAI研究、そしてAIの安全性とセキュリティについて、AIの制御不能な結果について議論する。
論文 参考訳(メタデータ) (2020-07-19T02:49:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。