論文の概要: The Less Intelligent the Elements, the More Intelligent the Whole. Or,
Possibly Not?
- arxiv url: http://arxiv.org/abs/2012.12689v2
- Date: Mon, 10 Jul 2023 10:21:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-07-12 19:37:07.837120
- Title: The Less Intelligent the Elements, the More Intelligent the Whole. Or,
Possibly Not?
- Title(参考訳): 要素の知性が低くなればなるほど、全体として知性が高まる。
それとも、そうじゃないの?
- Authors: Guido Fioretti, Andrea Policarpi
- Abstract要約: 我々は、捕食者と獲物の共存または世界的絶滅につながる知性の種類と程度を考察する。
共存に寄与するいくつかの個人的挙動が、最終的には平衡の周りの振動とともに見つかる。
Lotka-Volterraモデルもまた、ビジネスサイクルを表すものとして解釈されているため、この発見は発振に関する経済成長の条件として理解されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We explore a Leviathan analogy between neurons in a brain and human beings in
society, asking ourselves whether individual intelligence is necessary for
collective intelligence to emerge and, most importantly, what sort of
individual intelligence is conducive of greater collective intelligence. We
first review disparate insights from connectionist cognitive science,
agent-based modeling, group psychology, economics and physics. Subsequently, we
apply these insights to the sort and degrees of intelligence that in the
Lotka-Volterra model lead to either co-existence or global extinction of
predators and preys.
We find several individual behaviors -- particularly of predators -- that are
conducive to co-existence, eventually with oscillations around an equilibrium.
However, we also find that if both preys and predators are sufficiently
intelligent to extrapolate one other's behavior, co-existence comes along with
indefinite growth of both populations. Since the Lotka-Volterra model is also
interpreted to represent the business cycle, we understand this finding as a
condition for economic growth around oscillations. Specifically, we hypothesize
that pre-modern societies may not have exhibited limitless growth also because
capitalistic future-oriented thinking based on saving and investing concerned
at most a fraction of the population.
- Abstract(参考訳): 我々は、脳内のニューロンと社会内の人間の間のレヴィアサンの類推を探求し、集団知能が出現するために個人の知能が不可欠かどうか、そして最も重要なことは、個々の知能がより大きな集団知能のどんなものなのかを自問する。
まず,コネクショニスト認知科学,エージェントベースモデリング,グループ心理学,経済学,物理のさまざまな知見を概観する。
その後、これらの知見を、ロトカ・ボルテラモデルにおける捕食者と獲物の共存または世界的絶滅につながる知性の種類と程度に適用する。
その結果、複数の行動(特に捕食者の行動)が共存に結び付き、最終的には平衡付近の振動を伴うことが判明した。
しかし、獲物と捕食者の両方が、お互いの行動を外挿するのに十分な知性を持っている場合、共存は両集団の不確定な成長とともに生じる。
Lotka-Volterraモデルもまた、ビジネスサイクルを表すものとして解釈されているため、この発見は発振に関する経済成長の条件として理解されている。
特に, 先進社会は, 人口の少なくとも一部において, 貯蓄と投資に基づく資本主義的未来志向の思考が, 無限に成長したとは考えていない。
関連論文リスト
- The Society of HiveMind: Multi-Agent Optimization of Foundation Model Swarms to Unlock the Potential of Collective Intelligence [6.322831694506287]
複数のAIファンデーションモデル間のインタラクションをオーケストレーションするフレームワークを開発する。
このフレームワークは、主に現実世界の知識を必要とするタスクに対して、無視可能なメリットを提供する。
一方、我々は、集中的な論理的推論を必要とするタスクの大幅な改善について言及する。
論文 参考訳(メタデータ) (2025-03-07T14:45:03Z) - EgoAgent: A Joint Predictive Agent Model in Egocentric Worlds [107.62381002403814]
本稿では,人間のように行動するエージェントモデルを学習し,人間中心の世界において協調的に知覚し,予測し,行動することができる課題について述べる。
本研究では,世界を表現することを同時に学び,将来の状態を予測し,一つのトランスフォーマー内で合理的な行動をとる,共同予測エージェントモデルEgoAgentを提案する。
論文 参考訳(メタデータ) (2025-02-09T11:28:57Z) - Can Language Models Learn to Skip Steps? [59.84848399905409]
我々は推論においてステップをスキップする能力について研究する。
効率を高めたり認知負荷を減らすためのステップをスキップする人間とは異なり、モデルはそのようなモチベーションを持っていない。
私たちの研究は、人間のようなステップスキッピング能力に関する最初の調査である。
論文 参考訳(メタデータ) (2024-11-04T07:10:24Z) - On a Functional Definition of Intelligence [0.0]
合意されたインテリジェンスの定義がなければ、"このシステムはインテリジェントか?
知性(intelligence)とは、哲学、心理学、認知科学の分野である。
我々は、その知性が実際に達成される方法とは異なる、純粋に機能的でブラックボックスな知性の定義について論じる。
論文 参考訳(メタデータ) (2023-12-15T05:46:49Z) - The Generative AI Paradox: "What It Can Create, It May Not Understand" [81.89252713236746]
生成AIの最近の波は、潜在的に超人的な人工知能レベルに対する興奮と懸念を引き起こしている。
同時に、モデルは、専門家でない人でも期待できないような理解の基本的な誤りを示している。
一見超人的な能力と、ごく少数の人間が起こすエラーの持続性を、どうやって再現すればよいのか?
論文 参考訳(メタデータ) (2023-10-31T18:07:07Z) - AI for Mathematics: A Cognitive Science Perspective [86.02346372284292]
数学は人間によって開発された最も強力な概念体系の1つである。
AIの急速な進歩、特に大規模言語モデル(LLM)の進歩による推進により、そのようなシステム構築に対する新たな、広範な関心が生まれている。
論文 参考訳(メタデータ) (2023-10-19T02:00:31Z) - Predator-prey survival pressure is sufficient to evolve swarming
behaviors [22.69193229479221]
混合協調競合型マルチエージェント強化学習に基づく最小限の捕食者・捕食者共進化フレームワークを提案する。
驚くべきことに、我々のこのアプローチの分析は、獲物と捕食者の両方にとって予期せぬほど多様な行動を示す。
論文 参考訳(メタデータ) (2023-08-24T08:03:11Z) - The Nature of Intelligence [0.0]
人間とAIの両方で一般的に表現される知性の本質は不明である。
インテリジェンスの性質は,システムエントロピーを最小限に抑える数学的に機能する一連のプロセスであることを示す。
このエッセイは、宇宙と私たちを人間としてより深く理解するための出発点となるべきです。
論文 参考訳(メタデータ) (2023-07-20T23:11:59Z) - Theory of Mind as Intrinsic Motivation for Multi-Agent Reinforcement
Learning [5.314466196448188]
本稿では,深いネットワークによってモデル化された政策の中で意味論的・人間解釈的信念を基礎づける手法を提案する。
各エージェントが他のエージェントの信念を予測する能力は,マルチエージェント強化学習の本質的な報奨信号として利用できることを提案する。
論文 参考訳(メタデータ) (2023-07-03T17:07:18Z) - Leveraging Human Feedback to Evolve and Discover Novel Emergent
Behaviors in Robot Swarms [14.404339094377319]
我々は、人間の入力を活用して、特定のマルチエージェントシステムから現れる可能性のある集団行動の分類を自動で発見することを目指している。
提案手法は,Swarm集団行動に対する類似性空間を学習することにより,ユーザの嗜好に適応する。
我々は,2つのロボット能力モデルを用いたシミュレーションにおいて,本手法が従来よりも豊かな創発的行動の集合を常に発見できることを検証した。
論文 参考訳(メタデータ) (2023-04-25T15:18:06Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Learning Theory of Mind via Dynamic Traits Attribution [59.9781556714202]
本稿では,過去のトラジェクトリからアクターの潜在特性ベクトルを生成するニューラルToMアーキテクチャを提案する。
この特性ベクトルは、予測ニューラルネットワークの高速重み付けスキームを介して予測機構を乗法的に変調する。
実験により,高速重量はエージェントの特性をモデル化し,マインドリーディング能力を向上させるために優れた誘導バイアスを与えることが示された。
論文 参考訳(メタデータ) (2022-04-17T11:21:18Z) - A World-Self Model Towards Understanding Intelligence [0.0]
我々は、人間と人工知能を比較し、人間の知性の特定の側面が認識と認知を結びつける鍵である、と提案する。
我々は、より広範な概念、新しいモデルのWSM(World-Self Model)の原理と数学的枠組み、そして最後にWSMに基づいた統合されたインテリジェンス・フレームワークを提示する。
論文 参考訳(メタデータ) (2022-03-25T16:42:23Z) - Reward is not enough: can we liberate AI from the reinforcement learning paradigm? [0.0]
Reward氏は、自然と人工知能に関連する多くの活動を説明するには不十分だ。
知的行動の複雑さは、報酬の最大化の上の2階の複雑さだけではない。
論文 参考訳(メタデータ) (2022-02-03T18:31:48Z) - Heterogeneous-Agent Trajectory Forecasting Incorporating Class
Uncertainty [54.88405167739227]
本稿では,エージェントのクラス確率を明示的に組み込んだヘテロジニアスエージェント軌道予測手法であるHAICUを提案する。
さらに,新たな挑戦的な実世界の自動運転データセットであるpupも紹介する。
軌道予測にクラス確率を組み込むことで,不確実性に直面した性能が著しく向上することを示す。
論文 参考訳(メタデータ) (2021-04-26T10:28:34Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Future Trends for Human-AI Collaboration: A Comprehensive Taxonomy of
AI/AGI Using Multiple Intelligences and Learning Styles [95.58955174499371]
我々は、複数の人間の知性と学習スタイルの様々な側面を説明し、様々なAI問題領域に影響を及ぼす可能性がある。
未来のAIシステムは、人間のユーザと互いにコミュニケーションするだけでなく、知識と知恵を効率的に交換できる。
論文 参考訳(メタデータ) (2020-08-07T21:00:13Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。