論文の概要: Measuring AI R&D Automation
- arxiv url: http://arxiv.org/abs/2603.03992v3
- Date: Fri, 06 Mar 2026 18:41:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:43.988293
- Title: Measuring AI R&D Automation
- Title(参考訳): AI R&D自動化の測定
- Authors: Alan Chan, Ranay Padarath, Joe Kwon, Hilary Greaves, Markus Anderljung,
- Abstract要約: この研究は、AIRDAの規模とAIの進歩と監視への影響を追跡するためのメトリクスを提案する。
メトリクスは、AI R&D支出の資本共有、研究者の時間割当、AIのサブバージョンインシデントといった範囲にまたがる。
我々は、企業や第三者(非営利団体など)がこれらの指標を追跡し始め、政府がこれらの取り組みを支援することを推奨する。
- 参考スコア(独自算出の注目度): 1.2667742038193037
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The automation of AI R&D (AIRDA) could have significant implications, but its extent and ultimate effects remain uncertain. We need empirical data to resolve these uncertainties, but existing data (primarily capability benchmarks) may not reflect real-world automation or capture its broader consequences, such as whether AIRDA accelerates capabilities more than safety progress or whether our ability to oversee AI R&D can keep pace with its acceleration. To address these gaps, this work proposes metrics to track the extent of AIRDA and its effects on AI progress and oversight. The metrics span dimensions such as capital share of AI R&D spending, researcher time allocation, and AI subversion incidents, and could help decision makers understand the potential consequences of AIRDA, implement appropriate safety measures, and maintain awareness of the pace of AI development. We recommend that companies and third parties (e.g. non-profit research organisations) start to track these metrics, and that governments support these efforts.
- Abstract(参考訳): AI R&D(AIRDA)の自動化は重大な意味を持つ可能性があるが、その範囲と最終的な影響は未だ不明である。
これらの不確実性を解決するためには経験的なデータが必要ですが、既存のデータ(主に機能ベンチマーク)は、現実の自動化を反映したり、AIRDAが安全性の進歩以上の能力を加速するかどうか、AI R&Dを監督する能力がその加速に追随するかどうかといった、より広範な結果を捉えたりしません。
これらのギャップに対処するため、この研究はAIRDAの範囲とAIの進歩と監視への影響を追跡するメトリクスを提案する。
このメトリクスは、AI研究開発費の資本シェア、研究者の時間割当、AIのサブバージョンインシデントといった範囲にまたがっており、意思決定者がAIRDAの潜在的な結果を理解し、適切な安全対策を実行し、AI開発ペースの認識を維持するのに役立つ。
我々は、企業や第三者(非営利団体など)がこれらの指標を追跡し始め、政府がこれらの取り組みを支援することを推奨する。
関連論文リスト
- Advancing AI Challenges for the United States Department of the Air Force [91.02589169578908]
DAF-MIT AI Acceleratorは、アメリカ空軍(DAF)とマサチューセッツ工科大学(MIT)の協力である。
この記事では、AI Acceleratorの課題を紹介した前回の論文を補完する。
私たちは、AI技術のAI研究と応用に、進行中の新たな課題がいかに貢献したか、最新の情報を提供しています。
論文 参考訳(メタデータ) (2025-10-31T21:34:57Z) - Securing AI Agents: Implementing Role-Based Access Control for Industrial Applications [0.0]
産業環境では、AIエージェントは意思決定、予測保守、プロセス最適化を強化することでオペレーションを変革している。
これらの進歩にもかかわらず、AIエージェントは、迅速なインジェクション攻撃を含む、セキュリティ上の脅威に弱いままである。
本稿では,RBAC(Role-Based Access Control)をAIエージェントに統合し,堅牢なセキュリティガードレールを提供するフレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-14T20:58:08Z) - Superintelligent Agents Pose Catastrophic Risks: Can Scientist AI Offer a Safer Path? [37.13209023718946]
未確認のAI機関は、公共の安全とセキュリティに重大なリスクをもたらす。
これらのリスクが現在のAIトレーニング方法からどのように生じるかについて議論する。
我々は,非エージェント型AIシステムの開発をさらに進めるために,コアビルディングブロックを提案する。
論文 参考訳(メタデータ) (2025-02-21T18:28:36Z) - Training Data Attribution (TDA): Examining Its Adoption & Use Cases [5.256285764938807]
本稿では,TDA(Training Data Attribution)とそのAIからの極端なリスク軽減のための重要度とトラクタビリティについて検討する。
我々は、既存のTDA研究成果を現在の状態から、TDA推論の効率的かつ正確なツールへと導くために必要な、その可能性と労力について論じる。
我々は、TDAによって実現される可能性のある一連のポリシーとシステムをリストアップし、議論する。
論文 参考訳(メタデータ) (2025-01-22T05:03:51Z) - Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - An Ethical Framework for Guiding the Development of Affectively-Aware
Artificial Intelligence [0.0]
本稿では、感情認識型AIの倫理的結果(道徳的・倫理的結果)を評価するためのガイドラインを提案する。
我々は,AI開発者による倫理的責任を分離し,そのようなAIをデプロイするエンティティをビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビ
最終的には研究者、開発者、オペレーター、規制当局、法執行機関への勧告で終わります。
論文 参考訳(メタデータ) (2021-07-29T03:57:53Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。