論文の概要: Intelligence Test
- arxiv url: http://arxiv.org/abs/2502.18858v1
- Date: Wed, 26 Feb 2025 05:59:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-27 14:57:42.355173
- Title: Intelligence Test
- Title(参考訳): インテリジェンステスト
- Authors: Jingtao Zhan, Jiahao Zhao, Jiayu Li, Yiqun Liu, Bo Zhang, Qingyao Ai, Jiaxin Mao, Hongning Wang, Min Zhang, Shaoping Ma,
- Abstract要約: インテリジェンステスト(インテリジェンステスト)は、あらゆる課題における対象のインテリジェンスを定量化する手法である。
我々の結果は、AIシステムは単純なタスクである程度の自律性を達成するが、より複雑なタスクでは、まだ自律性には程遠いことを示している。
私たちは、インテリジェンステストはAIの将来の発展を導くだけでなく、人間自身のインテリジェンスに対する深い洞察を与えることができると信じています。
- 参考スコア(独自算出の注目度): 59.80426744891971
- License:
- Abstract: How does intelligence emerge? We propose that intelligence is not a sudden gift or random occurrence, but rather a necessary trait for species to survive through Natural Selection. If a species passes the test of Natural Selection, it demonstrates the intelligence to survive in nature. Extending this perspective, we introduce Intelligence Test, a method to quantify the intelligence of any subject on any task. Like how species evolve by trial and error, Intelligence Test quantifies intelligence by the number of failed attempts before success. Fewer failures correspond to higher intelligence. When the expectation and variance of failure counts are both finite, it signals the achievement of an autonomous level of intelligence. Using Intelligence Test, we comprehensively evaluate existing AI systems. Our results show that while AI systems achieve a level of autonomy in simple tasks, they are still far from autonomous in more complex tasks, such as vision, search, recommendation, and language. While scaling model size might help, this would come at an astronomical cost. Projections suggest that achieving general autonomy would require unimaginable $10^{26}$ parameters. Even if Moore's Law continuously holds, such a parameter scale would take $70$ years. This staggering cost highlights the complexity of human tasks and the inadequacies of current AI. To further understand this phenomenon, we conduct a theoretical analysis. Our simulations suggest that human tasks possess a criticality property. As a result, autonomy requires a deep understanding of the task's underlying mechanisms. Current AI, however, does not fully grasp these mechanisms and instead relies on superficial mimicry, making it difficult to reach an autonomous level. We believe Intelligence Test can not only guide the future development of AI but also offer profound insights into the intelligence of humans ourselves.
- Abstract(参考訳): 知性はどのように現われるのか?
我々は、知性は突然のギフトやランダムな発生ではなく、自然選択を通じて生き残るために必要な特性であると提案する。
ある種が自然選択テストに合格すれば、自然界で生き残るための知性を示す。
この観点を拡張して、あらゆる課題における任意の課題のインテリジェンスを定量化する方法であるインテリジェンステストを導入する。
試行錯誤によって種が進化するのと同じように、インテリジェンステストは成功前に失敗した試みの数によってインテリジェンスを定量化する。
失敗は高い知性に対応する。
フェールカウントの期待と分散の両方が有限であれば、自律的なインテリジェンスの達成を示唆する。
インテリジェンステストを用いて、既存のAIシステムを総合的に評価する。
我々の結果は、AIシステムは単純なタスクである程度の自律性を達成するが、ビジョン、検索、レコメンデーション、言語など、より複雑なタスクでは、まだ自律性には程遠いことを示している。
スケールするモデルのサイズは役に立つかもしれませんが、これは天文学的なコストになります。
一般の自律性を達成するには、想像不可能な10^{26}$パラメータが必要であることを示唆している。
ムーアの法則が連続的に成り立つとしても、そのようなパラメータスケールは70ドル年かかる。
この停滞するコストは、人間のタスクの複雑さと現在のAIの不整合を浮き彫りにする。
この現象をさらに理解するために、理論的解析を行う。
我々のシミュレーションは、人間のタスクが臨界特性を持っていることを示唆している。
その結果、自律性はタスクの根底にあるメカニズムを深く理解する必要がある。
しかし、現在のAIはこれらのメカニズムを完全に把握せず、表面的な模倣に依存しているため、自律的なレベルに達することは困難である。
私たちは、インテリジェンステストはAIの将来の発展を導くだけでなく、人間自身のインテリジェンスに対する深い洞察を与えることができると信じています。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - AI-as-exploration: Navigating intelligence space [0.05657375260432172]
私は、AIが果たさなければならない、無視されるが中心的な科学的な役割の輪郭を明確に表現します。
AI-as-explorationの基本的な推力は、知性の候補構築ブロックを明らかにするシステムの作成と研究である。
論文 参考訳(メタデータ) (2024-01-15T21:06:20Z) - On a Functional Definition of Intelligence [0.0]
合意されたインテリジェンスの定義がなければ、"このシステムはインテリジェントか?
知性(intelligence)とは、哲学、心理学、認知科学の分野である。
我々は、その知性が実際に達成される方法とは異なる、純粋に機能的でブラックボックスな知性の定義について論じる。
論文 参考訳(メタデータ) (2023-12-15T05:46:49Z) - The Generative AI Paradox: "What It Can Create, It May Not Understand" [81.89252713236746]
生成AIの最近の波は、潜在的に超人的な人工知能レベルに対する興奮と懸念を引き起こしている。
同時に、モデルは、専門家でない人でも期待できないような理解の基本的な誤りを示している。
一見超人的な能力と、ごく少数の人間が起こすエラーの持続性を、どうやって再現すればよいのか?
論文 参考訳(メタデータ) (2023-10-31T18:07:07Z) - AI for Mathematics: A Cognitive Science Perspective [86.02346372284292]
数学は人間によって開発された最も強力な概念体系の1つである。
AIの急速な進歩、特に大規模言語モデル(LLM)の進歩による推進により、そのようなシステム構築に対する新たな、広範な関心が生まれている。
論文 参考訳(メタデータ) (2023-10-19T02:00:31Z) - Suffering Toasters -- A New Self-Awareness Test for AI [0.0]
現在のインテリジェンステストはすべて、インテリジェンスの存在や欠如を示すには不十分である、と我々は主張する。
人工自己認識のための新しい手法を提案し,その実装の概要を述べる。
論文 参考訳(メタデータ) (2023-06-29T18:58:01Z) - An argument for the impossibility of machine intelligence [0.0]
AIの担い手になり得るエージェント(デバイス)とは何かを定義する。
我々は「知性の主流」の定義が弱すぎて、昆虫に知性を割り当てる際に関係するものを捉えることができないことを示した。
私たちは、この定義によって知能の担い手となるために、AIエージェントが保持しなければならない特性を特定します。
論文 参考訳(メタデータ) (2021-10-20T08:54:48Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Future Trends for Human-AI Collaboration: A Comprehensive Taxonomy of
AI/AGI Using Multiple Intelligences and Learning Styles [95.58955174499371]
我々は、複数の人間の知性と学習スタイルの様々な側面を説明し、様々なAI問題領域に影響を及ぼす可能性がある。
未来のAIシステムは、人間のユーザと互いにコミュニケーションするだけでなく、知識と知恵を効率的に交換できる。
論文 参考訳(メタデータ) (2020-08-07T21:00:13Z) - Is Intelligence Artificial? [0.0]
本稿では,自然界,次に人工知能に適用可能な統一的な定義を提案する。
コルモゴロフの複素性理論に基づく計量が示唆され、エントロピーに関する測度が導かれる。
承認されたAIテストのバージョンは、後に 'acid test' として提示され、フリー思考プログラムが達成しようとするものかもしれない。
論文 参考訳(メタデータ) (2014-03-05T11:09:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。