論文の概要: On a Functional Definition of Intelligence
- arxiv url: http://arxiv.org/abs/2312.09546v1
- Date: Fri, 15 Dec 2023 05:46:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-18 17:02:05.892786
- Title: On a Functional Definition of Intelligence
- Title(参考訳): インテリジェンスの機能的定義について
- Authors: Warisa Sritriratanarak and Paulo Garcia
- Abstract要約: 合意されたインテリジェンスの定義がなければ、"このシステムはインテリジェントか?
知性(intelligence)とは、哲学、心理学、認知科学の分野である。
我々は、その知性が実際に達成される方法とは異なる、純粋に機能的でブラックボックスな知性の定義について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Without an agreed-upon definition of intelligence, asking "is this system
intelligent?"" is an untestable question. This lack of consensus hinders
research, and public perception, on Artificial Intelligence (AI), particularly
since the rise of generative- and large-language models. Most work on precisely
capturing what we mean by "intelligence" has come from the fields of
philosophy, psychology, and cognitive science. Because these perspectives are
intrinsically linked to intelligence as it is demonstrated by natural
creatures, we argue such fields cannot, and will not, provide a sufficiently
rigorous definition that can be applied to artificial means. Thus, we present
an argument for a purely functional, black-box definition of intelligence,
distinct from how that intelligence is actually achieved; focusing on the
"what", rather than the "how". To achieve this, we first distinguish other
related concepts (sentience, sensation, agency, etc.) from the notion of
intelligence, particularly identifying how these concepts pertain to artificial
intelligent systems. As a result, we achieve a formal definition of
intelligence that is conceptually testable from only external observation, that
suggests intelligence is a continuous variable. We conclude by identifying
challenges that still remain towards quantifiable measurement. This work
provides a useful perspective for both the development of AI, and for public
perception of the capabilities and risks of AI.
- Abstract(参考訳): Without an agreed-upon definition of intelligence, asking "is this system intelligent?"" is an untestable question. This lack of consensus hinders research, and public perception, on Artificial Intelligence (AI), particularly since the rise of generative- and large-language models. Most work on precisely capturing what we mean by "intelligence" has come from the fields of philosophy, psychology, and cognitive science. Because these perspectives are intrinsically linked to intelligence as it is demonstrated by natural creatures, we argue such fields cannot, and will not, provide a sufficiently rigorous definition that can be applied to artificial means. Thus, we present an argument for a purely functional, black-box definition of intelligence, distinct from how that intelligence is actually achieved; focusing on the "what", rather than the "how".
これを達成するために、我々はまず、他の関連する概念(感覚、感覚、エージェンシーなど)を知性の概念と区別し、特にこれらの概念が人工知能システムにどのように関係しているかを特定する。
その結果、外部観測のみから概念的に検証可能なインテリジェンスの公式定義を実現し、インテリジェンスを連続変数とすることを示す。
我々は、定量化可能な測定にまだ残る課題を特定することで結論づける。
この研究は、AIの開発と、AIの能力とリスクに対する大衆の認識の両方に有用な視点を提供する。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - On the consistent reasoning paradox of intelligence and optimal trust in AI: The power of 'I don't know' [79.69412622010249]
一貫性推論(Consistent reasoning)は、人間の知性の中心にある、同等のタスクを扱う能力である。
CRPは、一貫性のある推論は誤認を意味する、と論じている。
論文 参考訳(メタデータ) (2024-08-05T10:06:53Z) - The Generative AI Paradox: "What It Can Create, It May Not Understand" [81.89252713236746]
生成AIの最近の波は、潜在的に超人的な人工知能レベルに対する興奮と懸念を引き起こしている。
同時に、モデルは、専門家でない人でも期待できないような理解の基本的な誤りを示している。
一見超人的な能力と、ごく少数の人間が起こすエラーの持続性を、どうやって再現すればよいのか?
論文 参考訳(メタデータ) (2023-10-31T18:07:07Z) - AI for Mathematics: A Cognitive Science Perspective [86.02346372284292]
数学は人間によって開発された最も強力な概念体系の1つである。
AIの急速な進歩、特に大規模言語モデル(LLM)の進歩による推進により、そのようなシステム構築に対する新たな、広範な関心が生まれている。
論文 参考訳(メタデータ) (2023-10-19T02:00:31Z) - A Theory of Intelligences [0.0]
私は物理学から生物学、人間、AIに至るまで、あらゆるシステムに適用可能なフレームワークを開発しています。
インテリジェンスとその構成要素に関する一般的な方程式と、インテリジェンス特性の進化のための単純な表現について述べる。
論文 参考訳(メタデータ) (2023-08-23T20:18:43Z) - Suffering Toasters -- A New Self-Awareness Test for AI [0.0]
現在のインテリジェンステストはすべて、インテリジェンスの存在や欠如を示すには不十分である、と我々は主張する。
人工自己認識のための新しい手法を提案し,その実装の概要を述べる。
論文 参考訳(メタデータ) (2023-06-29T18:58:01Z) - Defining and Explorting the Intelligence Space [0.0]
この記事では,3段階のインテリジェンスのネスト階層と,その周辺に構築されたより広い空間の両方を誘導する定義のカスケードを概説する。
このインテリジェンス空間内では、自然(特に人間)のインテリジェンスと人工知能(AI)の両方に対応する領域が特定される。
これらの定義は、特異性、生成的AI、倫理、知的財産権という、より先進的でより議論の的になる4つのトピックの初期の探索で活用される。
論文 参考訳(メタデータ) (2023-06-10T18:05:16Z) - An argument for the impossibility of machine intelligence [0.0]
AIの担い手になり得るエージェント(デバイス)とは何かを定義する。
我々は「知性の主流」の定義が弱すぎて、昆虫に知性を割り当てる際に関係するものを捉えることができないことを示した。
私たちは、この定義によって知能の担い手となるために、AIエージェントが保持しなければならない特性を特定します。
論文 参考訳(メタデータ) (2021-10-20T08:54:48Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Future Trends for Human-AI Collaboration: A Comprehensive Taxonomy of
AI/AGI Using Multiple Intelligences and Learning Styles [95.58955174499371]
我々は、複数の人間の知性と学習スタイルの様々な側面を説明し、様々なAI問題領域に影響を及ぼす可能性がある。
未来のAIシステムは、人間のユーザと互いにコミュニケーションするだけでなく、知識と知恵を効率的に交換できる。
論文 参考訳(メタデータ) (2020-08-07T21:00:13Z) - Is Intelligence Artificial? [0.0]
本稿では,自然界,次に人工知能に適用可能な統一的な定義を提案する。
コルモゴロフの複素性理論に基づく計量が示唆され、エントロピーに関する測度が導かれる。
承認されたAIテストのバージョンは、後に 'acid test' として提示され、フリー思考プログラムが達成しようとするものかもしれない。
論文 参考訳(メタデータ) (2014-03-05T11:09:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。