論文の概要: Future progress in artificial intelligence: A survey of expert opinion
- arxiv url: http://arxiv.org/abs/2508.11681v1
- Date: Sat, 09 Aug 2025 14:34:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.247292
- Title: Future progress in artificial intelligence: A survey of expert opinion
- Title(参考訳): 人工知能の今後の進歩:専門家の意見調査
- Authors: Vincent C. Müller, Nick Bostrom,
- Abstract要約: 数十年後には、高レベルのマシンインテリジェンスと超知能AIが登場するのではないか、という懸念がある。
専門家は、30年足らずでシステムは超知能に移行すると予想している。
彼らは、この開発が人類にとって「悪い」あるいは「非常に悪い」ことが判明した3分の1の確率を見積もっている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is, in some quarters, concern about high-level machine intelligence and superintelligent AI coming up in a few decades, bringing with it significant risks for humanity. In other quarters, these issues are ignored or considered science fiction. We wanted to clarify what the distribution of opinions actually is, what probability the best experts currently assign to high-level machine intelligence coming up within a particular time-frame, which risks they see with that development, and how fast they see these developing. We thus designed a brief questionnaire and distributed it to four groups of experts in 2012/2013. The median estimate of respondents was for a one in two chance that high-level machine intelligence will be developed around 2040-2050, rising to a nine in ten chance by 2075. Experts expect that systems will move on to superintelligence in less than 30 years thereafter. They estimate the chance is about one in three that this development turns out to be 'bad' or 'extremely bad' for humanity.
- Abstract(参考訳): 一部の地域では、高レベルのマシンインテリジェンスと超知能AIが数十年以内に登場し、人類にとって重大なリスクをもたらすのではないかという懸念がある。
他の4分の1では、これらの問題は無視されるか、SFと見なされる。
私たちは、意見の分布が実際に何であるか、現在、最高の専門家が特定の時間枠内に現われるハイレベルなマシンインテリジェンスに割り当てる確率、その開発で見込まれるリスク、そしてそれらがどれだけの速さで発達するか、を明確にしたかったのです。
そこで我々は,2012/2013年に簡単なアンケートを設計し,専門家4グループに配布した。
回答者の中央値は、2040年から2050年頃に高レベルのマシンインテリジェンスが開発される確率が2分の1で、2075年までには9分の1まで上昇する。
専門家は、30年足らずでシステムは超知能に移行すると予想している。
彼らは、この開発が人類にとって「悪い」あるいは「非常に悪い」ことが判明した3分の1の確率を見積もっている。
関連論文リスト
- Evaluating Intelligence via Trial and Error [59.80426744891971]
本研究では,試行錯誤プロセスにおける失敗回数に基づいて知性を評価するためのフレームワークとして,Survival Gameを紹介した。
フェールカウントの期待と分散の両方が有限である場合、新しい課題に対するソリューションを一貫して見つける能力を示す。
我々の結果は、AIシステムは単純なタスクで自律レベルを達成するが、より複雑なタスクではまだまだ遠いことを示している。
論文 参考訳(メタデータ) (2025-02-26T05:59:45Z) - Perceptions of Sentient AI and Other Digital Minds: Evidence from the AI, Morality, and Sentience (AIMS) Survey [0.0]
アメリカ成人の5人に1人は、一部のAIシステムが現在センシティブであり、38%がセンシティブAIの法的権利を支持していると信じている。
2023年の平均的な予測は、知覚的AIがわずか5年で到着するというものだった。
安全で有益なAIの開発には、技術的な研究だけでなく、人間がデジタルマインドと認識し共存する複雑な方法を理解することが必要である。
論文 参考訳(メタデータ) (2024-07-11T21:04:39Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - Thousands of AI Authors on the Future of AI [1.0717301750064765]
ほとんどの回答者は、AIの進歩の長期的な価値についてかなりの不確実性を示した。
半数以上が、AIに関連する6つのシナリオについて、"実質的"または"極端"の懸念が保証されていることを示唆している。
AIの進歩が人類の未来に良くなるかどうかについては意見の相違があった。
論文 参考訳(メタデータ) (2024-01-05T14:53:09Z) - The Generative AI Paradox: "What It Can Create, It May Not Understand" [81.89252713236746]
生成AIの最近の波は、潜在的に超人的な人工知能レベルに対する興奮と懸念を引き起こしている。
同時に、モデルは、専門家でない人でも期待できないような理解の基本的な誤りを示している。
一見超人的な能力と、ごく少数の人間が起こすエラーの持続性を、どうやって再現すればよいのか?
論文 参考訳(メタデータ) (2023-10-31T18:07:07Z) - A Survey on Brain-Inspired Deep Learning via Predictive Coding [85.93245078403875]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - Making AI 'Smart': Bridging AI and Cognitive Science [0.0]
認知科学の統合により、人工知能の「人工的な」特徴はすぐに「スマート」に置き換えられるかもしれない
これにより、より強力なAIシステムが開発され、同時に人間の脳がどのように機能するかをよりよく理解できるようになる。
このような高度なシステムを開発するためには、まず人間の脳をよりよく理解する必要があるため、AIが人間の文明を乗っ取る可能性は低いと我々は主張する。
論文 参考訳(メタデータ) (2021-12-31T09:30:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。