論文の概要: AI Researchers' Views on Automating AI R&D and Intelligence Explosions
- arxiv url: http://arxiv.org/abs/2603.03338v1
- Date: Fri, 13 Feb 2026 23:24:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 01:20:08.167681
- Title: AI Researchers' Views on Automating AI R&D and Intelligence Explosions
- Title(参考訳): AI研究者のAI R&Dとインテリジェンス爆発の自動化に関する見解
- Authors: Severin Field, Raymond Douglas, David Krueger,
- Abstract要約: 多くの先進的なAI研究者は、AI開発が過去のすべての技術革新の変革的影響を超えることを期待している。
私たちは、フロンティアAIラボとアカデミックの25の研究者にインタビューした。
- 参考スコア(独自算出の注目度): 7.10975129848806
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many leading AI researchers expect AI development to exceed the transformative impact of all previous technological revolutions. This belief is based on the idea that AI will be able to automate the process of AI research itself, leading to a positive feedback loop. In August and September of 2025, we interviewed 25 leading researchers from frontier AI labs and academia, including participants from Google DeepMind, OpenAI, Anthropic, Meta, UC Berkeley, Princeton, and Stanford to understand researcher perspectives on these scenarios. Though AI systems have not yet been able to recursively improve, 20 of the 25 researchers interviewed identified automating AI research as one of the most severe and urgent AI risks. Participants converged on predictions that AI agents will become more capable at coding, math and eventually AI development, gradually transitioning from `assistants' or `tools' to `autonomous AI developers,' after which point, predictions diverge. While researchers agreed upon the possibility of recursive improvement, they disagreed on basic questions of timelines or appropriate governance mechanisms. For example, an epistemic divide emerged between frontier lab researchers and academic researchers, the latter of which expressed more skepticism about explosive growth scenarios. Additionally, 17/25 participants expected AI systems with advanced coding or R\&D capabilities to be increasingly reserved for internal use at AI companies or governments, unseen by the public. Participants were split as to whether setting regulatory ``red lines" was a good idea, though almost all favored transparency-based mitigations.
- Abstract(参考訳): 多くの先進的なAI研究者は、AI開発が過去のすべての技術革新の変革的影響を超えることを期待している。
この信念は、AIがAI研究自体のプロセスを自動化することができ、ポジティブなフィードバックループにつながるという考えに基づいている。
2025年8月と9月に、Google DeepMind、OpenAI、Anthropic、Meta、UC Berkeley、Princeton、Stanfordの参加者を含む、フロンティアAIラボとアカデミックの主要な25人の研究者にインタビューを行い、これらのシナリオに対する研究者の視点について理解した。
AIシステムはまだ再帰的に改善できていないが、25人の研究者のうち20人が、自動化AI研究を最も深刻で緊急なAIリスクの1つとして特定した。
参加者は、AIエージェントがコーディング、数学、そして最終的にはAI開発にもっと能力を持つようになるという予測に収束し、次第に 'アシスタント' や 'ツール' から '自律AI開発者' へと移行し、その後、予測は多様化する。
研究者は再帰的な改善の可能性について同意したが、時間軸に関する基本的な質問や適切なガバナンスメカニズムについて意見が一致しなかった。
例えば、フロンティア研究所の研究者と学術研究者の間で疫学的な隔たりが生まれ、後者は爆発的な成長シナリオについてより懐疑的であった。
さらに17/25の参加者は、高度なコーディングやR&D機能を備えたAIシステムが、AI企業や政府の内部使用のためにますます予約されることを期待しており、一般には見られていない。
参加者は、規制の「赤い線」の設定が良いアイデアであるかどうかで意見が分かれたが、ほとんど全員が透明性に基づく緩和を好んだ。
関連論文リスト
- Evaluating Sakana's AI Scientist: Bold Claims, Mixed Results, and a Promising Future? [20.188659973082643]
サカナは先日,AI Scientistを導入して,自律的に研究を行うこと,すなわち,私たちがARI(Artificial Research Intelligence)と呼ぶものを達成したことを示唆している,と主張している。
AI Scientistの評価は、重大な欠点を明らかにします。
論文 参考訳(メタデータ) (2025-02-20T06:22:03Z) - Perceptions of Sentient AI and Other Digital Minds: Evidence from the AI, Morality, and Sentience (AIMS) Survey [0.0]
アメリカ成人の5人に1人は、一部のAIシステムが現在センシティブであり、38%がセンシティブAIの法的権利を支持していると信じている。
2023年の平均的な予測は、知覚的AIがわずか5年で到着するというものだった。
安全で有益なAIの開発には、技術的な研究だけでなく、人間がデジタルマインドと認識し共存する複雑な方法を理解することが必要である。
論文 参考訳(メタデータ) (2024-07-11T21:04:39Z) - Navigating AI Fallibility: Examining People's Reactions and Perceptions of AI after Encountering Personality Misrepresentations [7.256711790264119]
ハイパーパーソナライズされたAIシステムは、パーソナライズされたレコメンデーションを提供するために人々の特性をプロファイルする。
これらのシステムは、人々の最も個人的な特性を推測する際にエラーに免疫がない。
人格の誤表現に遭遇した後、人々がどのように反応し、AIを知覚するかを検討するための2つの研究を行った。
論文 参考訳(メタデータ) (2024-05-25T21:27:15Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Artificial intelligence adoption in the physical sciences, natural
sciences, life sciences, social sciences and the arts and humanities: A
bibliometric analysis of research publications from 1960-2021 [73.06361680847708]
1960年には333の研究分野の14%がAIに関連していたが、1972年には全研究分野の半分以上、1986年には80%以上、現在では98%以上まで増加した。
1960年には、333の研究分野の14%がAI(コンピュータ科学の多くの分野)に関連していたが、1972年までに全研究分野の半分以上、1986年には80%以上、現在では98%以上まで増加した。
我々は、現在の急上昇の状況が異なっており、学際的AI応用が持続する可能性が高いと結論付けている。
論文 参考訳(メタデータ) (2023-06-15T14:08:07Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Forecasting AI Progress: Evidence from a Survey of Machine Learning
Researchers [0.0]
我々は,AIと機械学習(ML)の研究者による,AIの進歩に関する信念に関する大規模な調査の結果を報告する。
AI/MLの研究者たちは総じて、2060年までに人間レベルのマシンインテリジェンスが達成される確率を50%に設定した。
いくつかの短期的なAIマイルストーンの予測は、時間とともに減少し、AIの進歩に対する楽観性を示唆している。
論文 参考訳(メタデータ) (2022-06-08T19:05:12Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。