論文の概要: Roadmap to a Roadmap: How Could We Tell When AGI is a 'Manhattan
Project' Away?
- arxiv url: http://arxiv.org/abs/2008.04701v1
- Date: Thu, 6 Aug 2020 06:07:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-06 23:51:23.495203
- Title: Roadmap to a Roadmap: How Could We Tell When AGI is a 'Manhattan
Project' Away?
- Title(参考訳): AGIが「マンハッタン・プロジェクト」になるとき、どのようにわかるか?
- Authors: John-Clark Levin and Matthijs M. Maas
- Abstract要約: この論文は、そのような「滑走路」期間が、AI研究の前段階と質的に異なることを特徴付けている。
このプログラムは、AIの分野がそのようなしきい値にどの程度近いかを評価することを目的とした研究プログラムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper argues that at a certain point in research toward AGI, the problem
may become well-enough theorized that a clear roadmap exists for achieving it,
such that a Manhattan Project-like effort could greatly shorten the time to
completion. If state actors perceive that this threshold has been crossed,
their incentives around openness and international cooperation may shift rather
suddenly, with serious implications for AI risks and the stability of
international AI governance regimes. The paper characterizes how such a
'runway' period would be qualitatively different from preceding stages of AI
research, and accordingly proposes a research program aimed at assessing how
close the field of AI is to such a threshold - that is, it calls for the
formulation of a 'roadmap to the roadmap.'
- Abstract(参考訳): 本稿は,agi研究のある程度の段階では,マンハッタンプロジェクトのような取り組みが完成までの時間を大幅に短縮できるような,明確なロードマップが存在することを十分に理論化している可能性があることを論じる。
このしきい値が越えられたと認識された場合、オープン性や国際協力に関するインセンティブは、aiのリスクと国際aiガバナンス体制の安定性に深刻な影響を伴って、かなり急変する可能性がある。
本稿は、AI研究の先行段階と「走行」期間が質的に異なることを特徴とし、AIの分野がそのようなしきい値にどの程度近いかを評価するための研究プログラムを提案する。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Mapping Technical Safety Research at AI Companies: A literature review and incentives analysis [0.0]
レポートは、3つの主要なAI企業が実施する安全なAI開発に関する技術研究を分析している。
Anthropic、Google DeepMind、OpenAI。
私たちは安全なAI開発を、大規模な誤用や事故のリスクを生じにくいAIシステムの開発であると定義しました。
論文 参考訳(メタデータ) (2024-09-12T09:34:55Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Scalable AI Safety via Doubly-Efficient Debate [37.25328923531058]
強力な能力を持つ事前訓練されたAIシステムの出現は、AI安全性に対する重要な課題を提起している。
当初のフレームワークは、正直な戦略がAIシステムを指数関数的なステップでシミュレートできるという仮定に基づいていた。
新しいプロトコルを設計することで、これらの課題に対処する方法を示す。
論文 参考訳(メタデータ) (2023-11-23T17:46:30Z) - POA: Passable Obstacles Aware Path-planning Algorithm for Navigation of
a Two-wheeled Robot in Highly Cluttered Environments [53.41594627336511]
パッシブル障害物認識(Passable Obstacles Aware, POA)プランナーは, 乱雑な環境下での二輪ロボットのナビゲーション手法である。
我々のアルゴリズムは、二輪ロボットが通過可能な障害物を通り抜ける道を見つけることを可能にする。
論文 参考訳(メタデータ) (2023-07-16T19:44:27Z) - LeanAI: A method for AEC practitioners to effectively plan AI
implementations [1.213096549055645]
AIの使用に関する熱意にもかかわらず、現在のビッグデータプロジェクトの85%は失敗している。
AEC業界でAIプロジェクトが失敗する主な理由の1つは、AIの計画や使用を決定した人とそれを実装する人との接続を断つことである。
この研究はLeanAIメソッドを導入し、AIが解決すべきもの、解決すべきもの、解決すべきものを説明する。
論文 参考訳(メタデータ) (2023-06-29T09:18:11Z) - Even if Explanations: Prior Work, Desiderata & Benchmarks for
Semi-Factual XAI [7.881140597011731]
反事実的、半事実的なサブタイプは、AIではあまり注目されていない。
本稿では,この地域の歴史的・最近のブレークスルーを要約する文献を調査する。
半実のXAIのための重要なデシラタを定義し、過去のアルゴリズムのベンチマークテストを報告している。
論文 参考訳(メタデータ) (2023-01-27T19:58:12Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - What-If Motion Prediction for Autonomous Driving [58.338520347197765]
生存可能なソリューションは、道路レーンのような静的な幾何学的文脈と、複数のアクターから生じる動的な社会的相互作用の両方を考慮しなければならない。
本稿では,解釈可能な幾何学的(アクター・レーン)と社会的(アクター・アクター)の関係を持つグラフに基づく注意的アプローチを提案する。
提案モデルでは,道路レーンやマルチアクターの相互作用を仮定的に,あるいは「何」かで予測できる。
論文 参考訳(メタデータ) (2020-08-24T17:49:30Z) - LEAF: Latent Exploration Along the Frontier [47.304858727365094]
自己組織化された目標の提案と到達は、探索と効率的なポリシー学習アルゴリズムの鍵となるコンポーネントである。
到達可能な状態の動的対応多様体を学習する探索フレームワークを提案する。
提案手法は,ロボット環境における既存のベースラインよりも優れた,自己教師付き探索アルゴリズムであることを示す。
論文 参考訳(メタデータ) (2020-05-21T22:46:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。