論文の概要: Transformative AGI by 2043 is <1% likely
- arxiv url: http://arxiv.org/abs/2306.02519v1
- Date: Mon, 5 Jun 2023 00:58:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 17:28:45.782515
- Title: Transformative AGI by 2043 is <1% likely
- Title(参考訳): 2043年までにトランスフォーマティブAGIは<1%の確率である
- Authors: Ari Allyn-Feuer and Ted Sanders
- Abstract要約: 我々は、2043年までに変換人工知能(AGI)の確率を推定し、その確率を1%とする。
それぞれのステップに対して、2043年までに成功の確率を推定する。
この枠組みは人類がトランスフォーメーションAGIに向けて部分的だが不完全な進歩を行う多くの未来のシナリオを列挙するのに役立つ。
- 参考スコア(独自算出の注目度): 1.424817975103358
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper is a submission to the Open Philanthropy AI Worldviews Contest. In
it, we estimate the likelihood of transformative artificial general
intelligence (AGI) by 2043 and find it to be <1%.
Specifically, we argue:
The bar is high: AGI as defined by the contest - something like AI that can
perform nearly all valuable tasks at human cost or less - which we will call
transformative AGI is a much higher bar than merely massive progress in AI, or
even the unambiguous attainment of expensive superhuman AGI or cheap but uneven
AGI.
Many steps are needed: The probability of transformative AGI by 2043 can be
decomposed as the joint probability of a number of necessary steps, which we
group into categories of software, hardware, and sociopolitical factors.
No step is guaranteed: For each step, we estimate a probability of success by
2043, conditional on prior steps being achieved. Many steps are quite
constrained by the short timeline, and our estimates range from 16% to 95%.
Therefore, the odds are low: Multiplying the cascading conditional
probabilities together, we estimate that transformative AGI by 2043 is 0.4%
likely. Reaching >10% seems to require probabilities that feel unreasonably
high, and even 3% seems unlikely.
Thoughtfully applying the cascading conditional probability approach to this
question yields lower probability values than is often supposed. This framework
helps enumerate the many future scenarios where humanity makes partial but
incomplete progress toward transformative AGI.
- Abstract(参考訳): この論文は、Open Philanthropy AI Worldviews Contestへの提出である。
そこで我々は,2043年までにAGI(Transformative Artificial General Intelligence)の確率を推定し,その確率を1%とした。
コンテストによって定義されたAGI - 人的コスト以下でほぼすべての価値のあるタスクを実行できるAIのようなもの - トランスフォーメーションAGIは、単なるAIの大規模な進歩よりもはるかに高いバー、あるいは高価な超人的AGIや、安価で不均一なAGIの明確な達成さえも。
2043年までにagiが変化する確率は、ソフトウェア、ハードウェア、社会政治の要素のカテゴリに分類される多くの必要なステップの合同確率として分解することができる。
ステップは保証されない: 各ステップについて、私たちは2043年までに成功の確率を見積もる。
多くのステップは短いタイムラインによってかなり制約されており、見積もりは16%から95%の範囲です。
したがって, 2043 年までに変換可能な agi が 0.4% の確率で, カスケード条件付き確率を掛け合わせた場合, 確率は低い。
10%は不当に高く感じる確率を必要としているようで、3%でさえありそうにない。
この問題にカスケード条件付き確率アプローチを適用すると、しばしば想定されるよりも低い確率値が得られる。
この枠組みは人類がトランスフォーメーションAGIに向けて部分的だが不完全な進歩を行う多くの未来のシナリオを列挙するのに役立つ。
関連論文リスト
- GRUtopia: Dream General Robots in a City at Scale [65.08318324604116]
本稿では,各種ロボットを対象とした対話型3D社会「GRUtopia」について紹介する。
GRScenesには100万のインタラクティブな微妙な注釈付きシーンが含まれており、都市規模の環境に自由に組み合わせることができる。
GRResidentsはLarge Language Model (LLM)によって駆動されるNon-Player Character (NPC)システムである。
論文 参考訳(メタデータ) (2024-07-15T17:40:46Z) - Reducing Human-Robot Goal State Divergence with Environment Design [23.98278690802828]
人間とAIのコラボレーションを成功させる上で最も難しい課題の1つは、ロボットの振る舞いと人間のユーザの期待を一致させることである。
我々は,ロボットの最終目標状態と人間の期待する目標状態との差を表す,Goal State Divergence $mathcal(GSD)$と呼ばれる新しい指標を提案する。
論文 参考訳(メタデータ) (2024-04-10T20:36:04Z) - AIGIQA-20K: A Large Database for AI-Generated Image Quality Assessment [54.93996119324928]
AIGIQA-20Kとして知られる2万のAIGIと420,000の主観評価を備えた、これまでで最大のAIGI主観的品質データベースを作成します。
このデータベース上でベンチマーク実験を行い、16の主流AIGI品質モデルと人間の知覚との対応性を評価する。
論文 参考訳(メタデータ) (2024-04-04T12:12:24Z) - Thousands of AI Authors on the Future of AI [1.0717301750064765]
ほとんどの回答者は、AIの進歩の長期的な価値についてかなりの不確実性を示した。
半数以上が、AIに関連する6つのシナリオについて、"実質的"または"極端"の懸念が保証されていることを示唆している。
AIの進歩が人類の未来に良くなるかどうかについては意見の相違があった。
論文 参考訳(メタデータ) (2024-01-05T14:53:09Z) - Concepts is All You Need: A More Direct Path to AGI [0.0]
20年ほど前にAGI(Artificial General Intelligence)という用語が発明されて以来、ほとんど進歩していない。
ここではアーキテクチャと開発計画を概説し、いくつかの予備的な結果とともに、完全な人間レベルAI(HLAI)/AGIへのより直接的なパスを提供します。
論文 参考訳(メタデータ) (2023-09-04T14:14:41Z) - Why We Don't Have AGI Yet [0.0]
元々のAIのビジョンは、2002年に"Artificial General Intelligence" (AGI) という用語で再認識された。
このビジョンは、人間と同じように学習し、推論し、問題を解決することができるコンピュータシステムである「シンキングマシン」を構築することである。
いくつかの大規模取り組みが名目上AGIに取り組んできたが、純粋に焦点を絞ったAGI開発分野は、十分な資金提供や推進がなされていない。
論文 参考訳(メタデータ) (2023-08-07T13:59:31Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Symbolic Discovery of Optimization Algorithms [132.62397077095787]
我々は,効率的な探索手法を用いて,無限小のプログラム空間を探索する。
提案手法は, 単純かつ効率的な最適化アルゴリズムである $textbfLion$ を探索する。
LionはGoogle検索広告CTRモデルのようなプロダクションシステムにうまくデプロイされている。
論文 参考訳(メタデータ) (2023-02-13T20:27:30Z) - ProcTHOR: Large-Scale Embodied AI Using Procedural Generation [55.485985317538194]
ProcTHORは、Embodied AI環境の手続き的生成のためのフレームワークである。
ナビゲーション、アレンジメント、アーム操作のための6つの具体化されたAIベンチマークに対して、最先端の結果を実証する。
論文 参考訳(メタデータ) (2022-06-14T17:09:35Z) - High Probability Bounds for a Class of Nonconvex Algorithms with AdaGrad
Stepsize [55.0090961425708]
本研究では,AdaGradのスムーズな非確率問題に対する簡易な高確率解析法を提案する。
我々はモジュラーな方法で解析を行い、決定論的設定において相補的な$mathcal O (1 / TT)$収束率を得る。
我々の知る限りでは、これは真に適応的なスキームを持つAdaGradにとって初めての高い確率である。
論文 参考訳(メタデータ) (2022-04-06T13:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。