論文の概要: Thousands of AI Authors on the Future of AI
- arxiv url: http://arxiv.org/abs/2401.02843v2
- Date: Tue, 30 Apr 2024 18:15:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-02 20:01:24.526094
- Title: Thousands of AI Authors on the Future of AI
- Title(参考訳): AIの未来について、何千人ものAI著者が語る
- Authors: Katja Grace, Harlan Stewart, Julia Fabienne Sandkühler, Stephen Thomas, Ben Weinstein-Raun, Jan Brauner,
- Abstract要約: ほとんどの回答者は、AIの進歩の長期的な価値についてかなりの不確実性を示した。
半数以上が、AIに関連する6つのシナリオについて、"実質的"または"極端"の懸念が保証されていることを示唆している。
AIの進歩が人類の未来に良くなるかどうかについては意見の相違があった。
- 参考スコア(独自算出の注目度): 1.0717301750064765
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the largest survey of its kind, 2,778 researchers who had published in top-tier artificial intelligence (AI) venues gave predictions on the pace of AI progress and the nature and impacts of advanced AI systems The aggregate forecasts give at least a 50% chance of AI systems achieving several milestones by 2028, including autonomously constructing a payment processing site from scratch, creating a song indistinguishable from a new song by a popular musician, and autonomously downloading and fine-tuning a large language model. If science continues undisrupted, the chance of unaided machines outperforming humans in every possible task was estimated at 10% by 2027, and 50% by 2047. The latter estimate is 13 years earlier than that reached in a similar survey we conducted only one year earlier [Grace et al., 2022]. However, the chance of all human occupations becoming fully automatable was forecast to reach 10% by 2037, and 50% as late as 2116 (compared to 2164 in the 2022 survey). Most respondents expressed substantial uncertainty about the long-term value of AI progress: While 68.3% thought good outcomes from superhuman AI are more likely than bad, of these net optimists 48% gave at least a 5% chance of extremely bad outcomes such as human extinction, and 59% of net pessimists gave 5% or more to extremely good outcomes. Between 38% and 51% of respondents gave at least a 10% chance to advanced AI leading to outcomes as bad as human extinction. More than half suggested that "substantial" or "extreme" concern is warranted about six different AI-related scenarios, including misinformation, authoritarian control, and inequality. There was disagreement about whether faster or slower AI progress would be better for the future of humanity. However, there was broad agreement that research aimed at minimizing potential risks from AI systems ought to be prioritized more.
- Abstract(参考訳): この種の最大の調査では、トップクラスの人工知能(AI)の会場で2,778人の研究者が、AIの進歩のペースと高度なAIシステムの性質と影響について予測した。
科学が崩壊し続ければ、あらゆるタスクにおいて人間より優れた機械が生まれる確率は、2027年までに10%、2047年には50%と見積もられた。
後者の見積もりは、私たちが1年前に行った同様の調査(Grace et al , 2022)よりも13年早い。
しかし、完全な自動化が可能となる確率は、2037年までに10%、2116年までに50%に達すると予測された(2022年の調査では2164人)。
68.3%は、超人的AIによる良い結果の方が、より悪いと考えるが、これらのネット楽観主義者の48%は、少なくとも、人間の絶滅のような非常に悪い結果の確率を5%以上与え、ネット悲観主義者の59%は、非常に良い結果に5%以上与えた。
回答者の38%から51%は、AIの進歩に少なくとも10%の確率を与え、人間の絶滅ほど悪い結果をもたらした。
半数以上が「実質的」あるいは「極端」な懸念は、誤情報、権威主義的制御、不平等を含む6つの異なるAI関連シナリオについて保証されていると示唆している。
AIの進歩の早さが人類の未来に良いかどうかについては意見の相違があった。
しかし、AIシステムからの潜在的なリスクを最小限に抑える研究が優先されるべきであるという、幅広い合意があった。
関連論文リスト
- What Do People Think about Sentient AI? [0.0]
先進的AIの話題に関する全国的に代表的な調査データを提示する。
2021年に1波、2023年に2波のデータ収集を行い、AIの幸福に対する心の認識と道徳的懸念は予想以上に高かった。
我々は、AIが賢明になるかどうかに関わらず、議論そのものが人間とコンピュータのインタラクションをオーバーホールするかもしれないと論じる。
論文 参考訳(メタデータ) (2024-07-11T21:04:39Z) - Harvard Undergraduate Survey on Generative AI [0.0]
ハーバード大学の大学院生の学習習慣,クラス選択,キャリアの見通しに及ぼすAIの影響について検討した。
約25%の学生のために、AIはオフィスの時間と必要な読み上げを代用し始めている。
学生の半数はAIが仕事の見通しに悪影響を及ぼすのではないかと心配しており、半数以上がハーバード大学にAIの将来的な影響についてもっと多くのクラスがあることを望んでいる。
論文 参考訳(メタデータ) (2024-06-02T18:47:08Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Artificial intelligence adoption in the physical sciences, natural
sciences, life sciences, social sciences and the arts and humanities: A
bibliometric analysis of research publications from 1960-2021 [73.06361680847708]
1960年には333の研究分野の14%がAIに関連していたが、1972年には全研究分野の半分以上、1986年には80%以上、現在では98%以上まで増加した。
1960年には、333の研究分野の14%がAI(コンピュータ科学の多くの分野)に関連していたが、1972年までに全研究分野の半分以上、1986年には80%以上、現在では98%以上まで増加した。
我々は、現在の急上昇の状況が異なっており、学際的AI応用が持続する可能性が高いと結論付けている。
論文 参考訳(メタデータ) (2023-06-15T14:08:07Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Forecasting AI Progress: Evidence from a Survey of Machine Learning
Researchers [0.0]
我々は,AIと機械学習(ML)の研究者による,AIの進歩に関する信念に関する大規模な調査の結果を報告する。
AI/MLの研究者たちは総じて、2060年までに人間レベルのマシンインテリジェンスが達成される確率を50%に設定した。
いくつかの短期的なAIマイルストーンの予測は、時間とともに減少し、AIの進歩に対する楽観性を示唆している。
論文 参考訳(メタデータ) (2022-06-08T19:05:12Z) - On the Influence of Explainable AI on Automation Bias [0.0]
我々は、説明可能なAI(XAI)によって自動化バイアスに影響を与える可能性に光を当てることを目指している。
ホテルのレビュー分類に関するオンライン実験を行い、最初の結果について議論する。
論文 参考訳(メタデータ) (2022-04-19T12:54:23Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。