論文の概要: Roadmap to a Roadmap: How Could We Tell When AGI is a 'Manhattan
Project' Away?
- arxiv url: http://arxiv.org/abs/2008.04701v1
- Date: Thu, 6 Aug 2020 06:07:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-06 23:51:23.495203
- Title: Roadmap to a Roadmap: How Could We Tell When AGI is a 'Manhattan
Project' Away?
- Title(参考訳): AGIが「マンハッタン・プロジェクト」になるとき、どのようにわかるか?
- Authors: John-Clark Levin and Matthijs M. Maas
- Abstract要約: この論文は、そのような「滑走路」期間が、AI研究の前段階と質的に異なることを特徴付けている。
このプログラムは、AIの分野がそのようなしきい値にどの程度近いかを評価することを目的とした研究プログラムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper argues that at a certain point in research toward AGI, the problem
may become well-enough theorized that a clear roadmap exists for achieving it,
such that a Manhattan Project-like effort could greatly shorten the time to
completion. If state actors perceive that this threshold has been crossed,
their incentives around openness and international cooperation may shift rather
suddenly, with serious implications for AI risks and the stability of
international AI governance regimes. The paper characterizes how such a
'runway' period would be qualitatively different from preceding stages of AI
research, and accordingly proposes a research program aimed at assessing how
close the field of AI is to such a threshold - that is, it calls for the
formulation of a 'roadmap to the roadmap.'
- Abstract(参考訳): 本稿は,agi研究のある程度の段階では,マンハッタンプロジェクトのような取り組みが完成までの時間を大幅に短縮できるような,明確なロードマップが存在することを十分に理論化している可能性があることを論じる。
このしきい値が越えられたと認識された場合、オープン性や国際協力に関するインセンティブは、aiのリスクと国際aiガバナンス体制の安定性に深刻な影響を伴って、かなり急変する可能性がある。
本稿は、AI研究の先行段階と「走行」期間が質的に異なることを特徴とし、AIの分野がそのようなしきい値にどの程度近いかを評価するための研究プログラムを提案する。
関連論文リスト
- Explain to Question not to Justify [21.026130628668067]
我々はXAI領域内で絡み合った様々なスレッドを、人間/価値指向の説明の相補的な2つの文化に分けた。
RED XAIの領域は現在未調査であり、AIシステムの安全性を確保するために必要な重要な研究の機会と可能性を秘めている、と我々は主張する。
論文 参考訳(メタデータ) (2024-02-21T16:30:24Z) - Is Ego Status All You Need for Open-Loop End-to-End Autonomous Driving? [88.398233613304]
エンドツーエンドの自動運転は、フルスタックの観点から自律性を目標とする、有望な研究の方向性として浮上している。
比較的単純な駆動シナリオを特徴とするnuScenesデータセットは、エンド・ツー・エンド・モデルにおける知覚情報の未使用化につながる。
予測軌跡が道路に付着するかどうかを評価するための新しい指標を提案する。
論文 参考訳(メタデータ) (2023-12-05T11:32:31Z) - Scalable AI Safety via Doubly-Efficient Debate [37.25328923531058]
強力な能力を持つ事前訓練されたAIシステムの出現は、AI安全性に対する重要な課題を提起している。
当初のフレームワークは、正直な戦略がAIシステムを指数関数的なステップでシミュレートできるという仮定に基づいていた。
新しいプロトコルを設計することで、これらの課題に対処する方法を示す。
論文 参考訳(メタデータ) (2023-11-23T17:46:30Z) - POA: Passable Obstacles Aware Path-planning Algorithm for Navigation of
a Two-wheeled Robot in Highly Cluttered Environments [53.41594627336511]
パッシブル障害物認識(Passable Obstacles Aware, POA)プランナーは, 乱雑な環境下での二輪ロボットのナビゲーション手法である。
我々のアルゴリズムは、二輪ロボットが通過可能な障害物を通り抜ける道を見つけることを可能にする。
論文 参考訳(メタデータ) (2023-07-16T19:44:27Z) - LeanAI: A method for AEC practitioners to effectively plan AI
implementations [1.213096549055645]
AIの使用に関する熱意にもかかわらず、現在のビッグデータプロジェクトの85%は失敗している。
AEC業界でAIプロジェクトが失敗する主な理由の1つは、AIの計画や使用を決定した人とそれを実装する人との接続を断つことである。
この研究はLeanAIメソッドを導入し、AIが解決すべきもの、解決すべきもの、解決すべきものを説明する。
論文 参考訳(メタデータ) (2023-06-29T09:18:11Z) - Even if Explanations: Prior Work, Desiderata & Benchmarks for
Semi-Factual XAI [7.881140597011731]
反事実的、半事実的なサブタイプは、AIではあまり注目されていない。
本稿では,この地域の歴史的・最近のブレークスルーを要約する文献を調査する。
半実のXAIのための重要なデシラタを定義し、過去のアルゴリズムのベンチマークテストを報告している。
論文 参考訳(メタデータ) (2023-01-27T19:58:12Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - What-If Motion Prediction for Autonomous Driving [58.338520347197765]
生存可能なソリューションは、道路レーンのような静的な幾何学的文脈と、複数のアクターから生じる動的な社会的相互作用の両方を考慮しなければならない。
本稿では,解釈可能な幾何学的(アクター・レーン)と社会的(アクター・アクター)の関係を持つグラフに基づく注意的アプローチを提案する。
提案モデルでは,道路レーンやマルチアクターの相互作用を仮定的に,あるいは「何」かで予測できる。
論文 参考訳(メタデータ) (2020-08-24T17:49:30Z) - LEAF: Latent Exploration Along the Frontier [47.304858727365094]
自己組織化された目標の提案と到達は、探索と効率的なポリシー学習アルゴリズムの鍵となるコンポーネントである。
到達可能な状態の動的対応多様体を学習する探索フレームワークを提案する。
提案手法は,ロボット環境における既存のベースラインよりも優れた,自己教師付き探索アルゴリズムであることを示す。
論文 参考訳(メタデータ) (2020-05-21T22:46:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。