論文の概要: Scenarios for the Transition to AGI
- arxiv url: http://arxiv.org/abs/2403.12107v1
- Date: Sun, 17 Mar 2024 22:22:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-20 18:41:45.043922
- Title: Scenarios for the Transition to AGI
- Title(参考訳): AGIへの移行シナリオ
- Authors: Anton Korinek, Donghyun Suh,
- Abstract要約: 我々は、技術進歩の異なるシナリオの下で、生産と賃金がどのように振る舞うかを分析する。
人間の作業は、複雑さが異なる原子論的なタスクに分解できると仮定する。
- 参考スコア(独自算出の注目度): 0.24664305327044286
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We analyze how output and wages behave under different scenarios for technological progress that may culminate in Artificial General Intelligence (AGI), defined as the ability of AI systems to perform all tasks that humans can perform. We assume that human work can be decomposed into atomistic tasks that differ in their complexity. Advances in technology make ever more complex tasks amenable to automation. The effects on wages depend on a race between automation and capital accumulation. If the distribution of task complexity exhibits a sufficiently thick infinite tail, then there is always enough work for humans, and wages may rise forever. By contrast, if the complexity of tasks that humans can perform is bounded and full automation is reached, then wages collapse. But declines may occur even before if large-scale automation outpaces capital accumulation and makes labor too abundant. Automating productivity growth may lead to broad-based gains in the returns to all factors. By contrast, bottlenecks to growth from irreproducible scarce factors may exacerbate the decline in wages.
- Abstract(参考訳): 我々は、AIシステムが人間が実行できる全てのタスクを実行する能力として定義される人工知能(AGI)において、技術進歩の異なるシナリオ下でのアウトプットと賃金がどのように振る舞うかを分析する。
人間の作業は、複雑さが異なる原子論的なタスクに分解できると仮定する。
テクノロジーの進歩は、より複雑なタスクを自動化しやすくする。
賃金への影響は、自動化と資本蓄積の間の競争に依存する。
タスクの複雑さの分布が十分厚い無限尾を示すなら、人間には必ず十分な仕事があり、賃金は永遠に上昇する可能性がある。
対照的に、人間が実行できるタスクの複雑さが束縛され、完全な自動化が達成されれば、賃金は崩壊する。
しかし、大規模な自動化が資本蓄積を超過し、労働力を過剰にしすぎれば、下降が起きる可能性がある。
生産性向上の自動化は、すべての要因に対するリターンの広範に利益をもたらす可能性がある。
対照的に、生産不可能な不足要因からの成長のボトルネックは賃金の低下を悪化させる可能性がある。
関連論文リスト
- HumanoidBench: Simulated Humanoid Benchmark for Whole-Body Locomotion and Manipulation [50.616995671367704]
そこで本研究では,人型ロボットが器用な手を備えた,高次元シミュレーション型ロボット学習ベンチマークHumanoidBenchを提案する。
その結果,最先端の強化学習アルゴリズムがほとんどのタスクに支障をきたすのに対して,階層的な学習ベースラインは頑健な低レベル政策に支えられた場合,優れた性能を達成できることがわかった。
論文 参考訳(メタデータ) (2024-03-15T17:45:44Z) - AI and Jobs: Has the Inflection Point Arrived? Evidence from an Online
Labor Platform [0.13124513975412255]
人間のタスクにおける統計AIの性能を4つの要因のレンズを用いて検討する。
我々は,それぞれの職業に摂動点が存在することを示すため,競争のシンプルな経済モデルを開発する。
実証的な証拠を提供するために、私たちはまず、AIのパフォーマンスが翻訳の占有の摂動点を超えたが、Web開発の占有のためのものではないと論じる。
論文 参考訳(メタデータ) (2023-12-07T10:06:34Z) - The Future of Fundamental Science Led by Generative Closed-Loop
Artificial Intelligence [67.70415658080121]
機械学習とAIの最近の進歩は、技術革新、製品開発、社会全体を破壊している。
AIは、科学的な実践とモデル発見のための高品質なデータの大規模なデータセットへのアクセスがより困難であるため、基礎科学にはあまり貢献していない。
ここでは、科学的な発見に対するAI駆動、自動化、クローズドループアプローチの側面を調査し、調査する。
論文 参考訳(メタデータ) (2023-07-09T21:16:56Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Human Decision Makings on Curriculum Reinforcement Learning with
Difficulty Adjustment [52.07473934146584]
我々は,カリキュラム強化学習結果を,人的意思決定プロセスから学ぶことで,難しすぎず,難しすぎるような望ましいパフォーマンスレベルに導く。
本システムは非常に並列化可能であり,大規模強化学習アプリケーションの訓練が可能となる。
強化学習性能は、人間の所望の難易度と同期してうまく調整できることが示される。
論文 参考訳(メタデータ) (2022-08-04T23:53:51Z) - The Turing Trap: The Promise & Peril of Human-Like Artificial
Intelligence [1.9143819780453073]
人間のような人工知能の利点には、生産性の上昇、余暇の増加、そしておそらく最も重要なのは、私たちの心をよりよく理解することが含まれる。
しかし、あらゆるタイプのAIが人間に似ているわけではない。実際、最も強力なシステムの多くは、人間とは大きく異なる。
機械が人間の労働の代用となるにつれ、労働者は経済的・政治的交渉力を失う。
対照的に、AIが人間を模倣するのではなく強化することに焦点を当てている場合、人間は創造された価値の共有を主張する力を保持します。
論文 参考訳(メタデータ) (2022-01-11T21:07:17Z) - Lifelong Robotic Reinforcement Learning by Retaining Experiences [61.79346922421323]
多くのマルチタスク強化学習は、ロボットが常にすべてのタスクからデータを収集できると仮定している。
本研究では,物理ロボットシステムの実用的制約を動機として,現実的なマルチタスクRL問題について検討する。
我々は、ロボットのスキルセットを累積的に成長させるために、過去のタスクで学んだデータとポリシーを効果的に活用するアプローチを導出する。
論文 参考訳(メタデータ) (2021-09-19T18:00:51Z) - The MineRL BASALT Competition on Learning from Human Feedback [58.17897225617566]
MineRL BASALTコンペティションは、この重要な種類の技術の研究を促進することを目的としている。
Minecraftでは、ハードコードされた報酬関数を書くのが難しいと期待する4つのタスクのスイートを設計しています。
これら4つのタスクのそれぞれについて、人間のデモのデータセットを提供するとともに、模擬学習ベースラインを提供する。
論文 参考訳(メタデータ) (2021-07-05T12:18:17Z) - AI and Shared Prosperity [0.0]
人間の労働を自動化するAIの今後の進歩は、労働市場や不平等に深刻な影響を及ぼす可能性がある。
本稿では,労働市場における特定のタイプのAIシステムの効果を,労働需要がどれだけの規模で生み出すかによって分析する枠組みを提案する。
論文 参考訳(メタデータ) (2021-05-18T12:37:18Z) - Hybrid Intelligence [4.508830262248694]
今後数十年間、人間と機械の間の労働分業の最も可能性の高いパラダイムはハイブリッド・インテリジェンスであると主張する。
このコンセプトは、人間の知性とAIの相補的な強みを利用することを目標とし、それぞれが個別にできることよりも優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-05-03T08:56:09Z) - Do's and Don'ts for Human and Digital Worker Integration [14.624340432672172]
我々は、複数のレベルの自律性と人間の関与の可能性を取り入れた、より広い視点を主張する。
私たちは、デジタルワーカーをビジネスプロセスに統合する際の生産性以上の幅広いメトリクスについて論じています。
論文 参考訳(メタデータ) (2020-10-15T13:30:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。