論文の概要: Levels of AGI: Operationalizing Progress on the Path to AGI
- arxiv url: http://arxiv.org/abs/2311.02462v2
- Date: Fri, 5 Jan 2024 21:15:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 22:21:40.680990
- Title: Levels of AGI: Operationalizing Progress on the Path to AGI
- Title(参考訳): AGIのレベル:AGIへの道のりをめざして
- Authors: Meredith Ringel Morris, Jascha Sohl-dickstein, Noah Fiedel, Tris
Warkentin, Allan Dafoe, Aleksandra Faust, Clement Farabet, Shane Legg
- Abstract要約: このフレームワークは、AGIパフォーマンス、一般性、自律性のレベルを導入します。
このフレームワークが、自動運転のレベルと同等の方法で有効になることを願っています。
- 参考スコア(独自算出の注目度): 67.02053749878078
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose a framework for classifying the capabilities and behavior of
Artificial General Intelligence (AGI) models and their precursors. This
framework introduces levels of AGI performance, generality, and autonomy. It is
our hope that this framework will be useful in an analogous way to the levels
of autonomous driving, by providing a common language to compare models, assess
risks, and measure progress along the path to AGI. To develop our framework, we
analyze existing definitions of AGI, and distill six principles that a useful
ontology for AGI should satisfy. These principles include focusing on
capabilities rather than mechanisms; separately evaluating generality and
performance; and defining stages along the path toward AGI, rather than
focusing on the endpoint. With these principles in mind, we propose 'Levels of
AGI' based on depth (performance) and breadth (generality) of capabilities, and
reflect on how current systems fit into this ontology. We discuss the
challenging requirements for future benchmarks that quantify the behavior and
capabilities of AGI models against these levels. Finally, we discuss how these
levels of AGI interact with deployment considerations such as autonomy and
risk, and emphasize the importance of carefully selecting Human-AI Interaction
paradigms for responsible and safe deployment of highly capable AI systems.
- Abstract(参考訳): 本稿では,人工知能(AGI)モデルとその前駆体の性能と動作を分類する枠組みを提案する。
このフレームワークは、AGIパフォーマンス、一般性、自律性のレベルを導入します。
モデルの比較,リスク評価,AGIへの道程の進捗測定を行う共通言語を提供することで,この枠組みが自律運転のレベルに類似した形で有用になることを願っている。
フレームワークを開発するために、既存のAGIの定義を分析し、AGIにとって有用なオントロジーが満たすべき6つの原則を抽出する。
これらの原則には、メカニズムよりも能力にフォーカスすること、汎用性とパフォーマンスを別々に評価すること、エンドポイントではなくagiに向かう段階を定義することが含まれる。
これらの原則を念頭に置いて,奥行き(性能)と能力の広さ(一般性)に基づく「アギのレベル」を提案し,このオントロジーに現在のシステムがどのように適合するかを考察する。
これらのレベルに対してAGIモデルの振る舞いと能力を定量化する将来のベンチマークの課題について論じる。
最後に、これらのAGIのレベルが自律性やリスクといったデプロイメント上の考慮事項とどのように相互作用するかについて議論し、高機能なAIシステムの責任と安全なデプロイメントにおいて、ヒューマン・AIインタラクションパラダイムを慎重に選択することの重要性を強調します。
関連論文リスト
- Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Benchmarks for Physical Reasoning AI [28.02418565463541]
既存のベンチマークの概要と、AIシステムの物理的推論能力を測定するためのソリューションアプローチについて説明する。
物理推論タスクにおけるアルゴリズム性能をテストするためのベンチマークを選択する。
提示された物理推論ベンチマークをサブカテゴリにグループ化し、より狭い一般AIエージェントをこれらのグループで最初にテストできるようにします。
論文 参考訳(メタデータ) (2023-12-17T14:24:03Z) - Towards a General Framework for Continual Learning with Pre-training [59.96040498079991]
本稿では,事前学習を用いた逐次到着タスクの連続学習のための一般的な枠組みを提案する。
我々はその目的を,タスク内予測,タスク同一性推論,タスク適応予測という3つの階層的構成要素に分解する。
本稿では,パラメータ効率細調整(PEFT)技術と表現統計量を用いて,これらのコンポーネントを明示的に最適化する革新的な手法を提案する。
論文 参考訳(メタデータ) (2023-10-21T02:03:38Z) - A Novel Neural-symbolic System under Statistical Relational Learning [50.747658038910565]
本稿では,GBPGRと呼ばれる2段階の確率的グラフィカル推論フレームワークを提案する。
GBPGRでは、シンボル推論の結果を用いて、ディープラーニングモデルによる予測を洗練し、修正する。
提案手法は高い性能を示し, 帰納的タスクと帰納的タスクの両方において効果的な一般化を示す。
論文 参考訳(メタデータ) (2023-09-16T09:15:37Z) - Learning Action-Effect Dynamics for Hypothetical Vision-Language
Reasoning Task [50.72283841720014]
本研究では,行動の効果に関する推論を改善する新しい学習戦略を提案する。
本稿では,提案手法の有効性を実証し,性能,データ効率,一般化能力の観点から,従来のベースラインに対する優位性を論じる。
論文 参考訳(メタデータ) (2022-12-07T05:41:58Z) - SoK: On the Semantic AI Security in Autonomous Driving [34.47681432784334]
自律運転システムは、安全と運転判断の正しさをAIコンポーネントに依存している。
このようなAIコンポーネントレベルの脆弱性がシステムレベルでセマンティックに影響を及ぼすためには、非自明なセマンティックギャップに対処する必要がある。
本稿では,このような研究領域を汎用AIセキュリティとは対照的にセマンティックAIセキュリティと定義する。
論文 参考訳(メタデータ) (2022-03-10T12:00:34Z) - Active Inference in Robotics and Artificial Agents: Survey and
Challenges [51.29077770446286]
我々は、状態推定、制御、計画、学習のためのアクティブ推論の最先端理論と実装についてレビューする。
本稿では、適応性、一般化性、堅牢性の観点から、その可能性を示す関連する実験を紹介する。
論文 参考訳(メタデータ) (2021-12-03T12:10:26Z) - Generalized dynamic cognitive hierarchy models for strategic driving
behavior [13.415452801139843]
我々は、自然主義的人間運転行動と自律走行車における行動計画の両方をモデル化するための一般化された動的認知階層の枠組みを開発する。
2つの大きな自然主義的データセットの評価に基づいて、動的レベル-kフレームワークにおけるレベル-0の振る舞いにオートマトン戦略が適していることを示す。
論文 参考訳(メタデータ) (2021-09-20T21:49:52Z) - Neuro-Symbolic VQA: A review from the perspective of AGI desiderata [0.0]
人工知能(AGI)の視点から見た視覚的質問応答(VQA)に対する神経シンボリック(NS)の適応について考察する。
この作業を通じて,ベンチマークのモデル評価を誘惑し,これらのシステムの性質と今後の拡張の可能性について議論できることを願っています。
論文 参考訳(メタデータ) (2021-04-13T17:23:19Z) - A Metamodel and Framework for AGI [3.198144010381572]
本稿では,応用AGIシステム構築のための知識保存メタモデルとフレームワークを実装したDeep Fusion Reasoning Engine(DFRE)を紹介する。
DFREは、対称関係と反対称関係の明確な区別など、いくつかの重要な基本的な知識特性を示す。
提案手法は, 教師なし物体の検出・認識において, 平均94%の精度を達成できることを示す。
論文 参考訳(メタデータ) (2020-08-28T23:34:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。