論文の概要: Less is More: some Computational Principles based on Parcimony, and Limitations of Natural Intelligence
- arxiv url: http://arxiv.org/abs/2506.07060v1
- Date: Sun, 08 Jun 2025 09:42:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.655146
- Title: Less is More: some Computational Principles based on Parcimony, and Limitations of Natural Intelligence
- Title(参考訳): より少ないもの:パーシモニーに基づく計算原理と自然知能の限界
- Authors: Laura Cohen, Xavier Hinaut, Lilyana Petrova, Alexandre Pitti, Syd Reynal, Ichiro Tsuda,
- Abstract要約: 自然知性は、より少ないことで一貫して達成される。
今日のAIは、ほぼ無制限の計算能力、エネルギー、データに依存して、高いパフォーマンスを実現している。
本稿では, NIの制約は, 効率, 適応性, クリエイティビティのパラドックス触媒であると主張している。
- 参考スコア(独自算出の注目度): 39.89179121430488
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Natural intelligence (NI) consistently achieves more with less. Infants learn language, develop abstract concepts, and acquire sensorimotor skills from sparse data, all within tight neural and energy limits. In contrast, today's AI relies on virtually unlimited computational power, energy, and data to reach high performance. This paper argues that constraints in NI are paradoxically catalysts for efficiency, adaptability, and creativity. We first show how limited neural bandwidth promotes concise codes that still capture complex patterns. Spiking neurons, hierarchical structures, and symbolic-like representations emerge naturally from bandwidth constraints, enabling robust generalization. Next, we discuss chaotic itinerancy, illustrating how the brain transits among transient attractors to flexibly retrieve memories and manage uncertainty. We then highlight reservoir computing, where random projections facilitate rapid generalization from small datasets. Drawing on developmental perspectives, we emphasize how intrinsic motivation, along with responsive social environments, drives infant language learning and discovery of meaning. Such active, embodied processes are largely absent in current AI. Finally, we suggest that adopting 'less is more' principles -- energy constraints, parsimonious architectures, and real-world interaction -- can foster the emergence of more efficient, interpretable, and biologically grounded artificial systems.
- Abstract(参考訳): ナチュラルインテリジェンス(NI)は、より少ない精度で継続的に達成する。
幼児は言語を学び、抽象概念を発達させ、まばらなデータから感覚運動のスキルを習得する。
対照的に、今日のAIは、高性能に到達するために、事実上無制限の計算力、エネルギー、データに依存している。
本稿では, NIの制約は, 効率, 適応性, クリエイティビティのパラドックス触媒であると主張している。
まず、ニューラルネットワークの帯域幅の制限が、複雑なパターンをキャプチャする簡潔なコードを促進することを示す。
スパイキングニューロン、階層構造、シンボルのような表現は帯域制限から自然に現れ、堅牢な一般化を可能にする。
次に、カオス的反復性(Chaoticitinancy)について論じ、脳が過渡的誘引者間でどのように遷移し、記憶を柔軟に回復し、不確実性を管理するかを説明する。
次に、ランダムなプロジェクションが小さなデータセットからの迅速な一般化を促進する貯水池計算を強調した。
発達的視点に基づいて、本質的なモチベーションと応答性のある社会的環境が幼児の言語学習と意味の発見をいかに促進するかを強調した。
このような活発で具体化されたプロセスは、現在のAIにはほとんど欠落している。
最後に、エネルギー制約、擬似的アーキテクチャ、現実世界の相互作用といった「なし」の原則を採用することで、より効率的で解釈可能で生物学的に根ざした人工システムの出現を促進することを提案します。
関連論文リスト
- Neural Brain: A Neuroscience-inspired Framework for Embodied Agents [58.58177409853298]
大規模な言語モデルのような現在のAIシステムは、いまだに解体され続けており、物理的に世界と関わりが持てない。
この課題の核心は、人間のような適応性を持つエンボディエージェントを駆動するために設計された中枢知能システムであるNeural Brain(ニューラル・ブレイン)の概念である。
本稿では,2つの基本的な課題に対処する,エンボディエージェントのニューラルブレインの統一的枠組みを提案する。
論文 参考訳(メタデータ) (2025-05-12T15:05:34Z) - Artificial Kuramoto Oscillatory Neurons [65.16453738828672]
神経科学とAIの両方では、ニューロン間の'バインディング'が、ネットワークの深い層においてより抽象的な概念を表現するために表現を圧縮する、競争的な学習の形式につながることが知られている。
完全に接続された畳み込みや注意機構などの任意の接続設計とともに人工的再考を導入する。
このアイデアは、教師なしオブジェクト発見、敵対的ロバスト性、不確実性、定量化、推論など、幅広いタスクにわたるパフォーマンス改善を提供する。
論文 参考訳(メタデータ) (2024-10-17T17:47:54Z) - Sequence learning in a spiking neuronal network with memristive synapses [0.0]
脳計算の中心にある中核的な概念は、シーケンス学習と予測である。
ニューロモルフィックハードウェアは、脳が情報を処理する方法をエミュレートし、ニューロンとシナプスを直接物理的基質にマッピングする。
シークエンス学習モデルにおける生物学的シナプスの代替としてReRAMデバイスを使用することの可能性について検討する。
論文 参考訳(メタデータ) (2022-11-29T21:07:23Z) - Towards the Neuroevolution of Low-level Artificial General Intelligence [5.2611228017034435]
我々は、AI(Artificial General Intelligence, AGI)の検索は、人間レベルの知能よりもはるかに低いレベルから始まるべきだと論じる。
我々の仮説は、エージェントが環境の中で行動するとき、学習は感覚フィードバックによって起こるというものである。
環境反応から学習する生物学的にインスパイアされた人工ニューラルネットワークを進化させる手法を評価する。
論文 参考訳(メタデータ) (2022-07-27T15:30:50Z) - Optimality of short-term synaptic plasticity in modelling certain
dynamic environments [0.5371337604556311]
ランダムだが連続的に変化する環境のベイズ最適予測と推測は、短期的なスパイクタイミング依存の塑性に依存している。
興味深いことに、これは生物学的にモデル化されたAIを導入し、視覚的なタスクにおいて、ディープラーニングの複数の制限を克服し、人工知能より優れた人工知能を初めて導入する。
結果は,短期的可塑性から高次皮質機能,自然環境に対する自然知能の最適性,単なる効率性から計算上の優位性まで,ニューロモルフィックなAIを示唆する。
論文 参考訳(メタデータ) (2020-09-15T01:04:28Z) - Learning as Reinforcement: Applying Principles of Neuroscience for More
General Reinforcement Learning Agents [1.0742675209112622]
我々は、生物学的アルゴリズムの計算効率の良い抽象化を組み合わせることによって、実験神経科学の原理に基づいて構築されたアーキテクチャを実装する。
我々のアプローチは、スパイク刺激依存塑性の研究、短期記憶と長期記憶の遷移、および好奇心に対する様々な神経伝達物質の役割に着想を得たものである。
Neurons-in-a-Boxアーキテクチャは、完全に一般化可能な方法で学習することができ、一連の基準やアクションを明示的に最適化することなく、表現を構築し、適用するための効率的な方法を示す。
論文 参考訳(メタデータ) (2020-04-20T04:06:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。