論文の概要: An Introduction to Cognidynamics
- arxiv url: http://arxiv.org/abs/2408.13112v1
- Date: Sun, 18 Aug 2024 05:40:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-01 17:02:13.114358
- Title: An Introduction to Cognidynamics
- Title(参考訳): 認知力学入門
- Authors: Marco Gori,
- Abstract要約: textitCognidynamicsは、時間とともに課される最適な目的によって駆動される認知システムのダイナミクスである。
我々は,エネルギー散逸の重要な役割とその注意機構と意識行動の焦点との関係を示す。
- 参考スコア(独自算出の注目度): 11.337163242503166
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper gives an introduction to \textit{Cognidynamics}, that is to the dynamics of cognitive systems driven by optimal objectives imposed over time when they interact either with a defined virtual or with a real-world environment. The proposed theory is developed in the general framework of dynamic programming which leads to think of computational laws dictated by classic Hamiltonian equations. Those equations lead to the formulation of a neural propagation scheme in cognitive agents modeled by dynamic neural networks which exhibits locality in both space and time, thus contributing the longstanding debate on biological plausibility of learning algorithms like Backpropagation. We interpret the learning process in terms of energy exchange with the environment and show the crucial role of energy dissipation and its links with focus of attention mechanisms and conscious behavior.
- Abstract(参考訳): 本稿では, 仮想空間や実環境との相互作用において, 時間とともに与えられた最適目的によって駆動される認知システムのダイナミクスについて紹介する。
提案された理論は、古典的なハミルトン方程式によって定式化された計算法則を考えることにつながる、動的プログラミングの一般的な枠組みで開発されている。
これらの方程式は、空間と時間の両方で局所性を示す動的ニューラルネットワークによってモデル化された認知エージェントの神経伝達スキームの定式化につながり、バックプロパゲーションのような学習アルゴリズムの生物学的妥当性に関する長年にわたる議論に寄与した。
我々は,環境とのエネルギー交換の観点から学習過程を解釈し,エネルギー散逸の重要な役割と,注意機構や意識行動に焦点をあてた関係を示す。
関連論文リスト
- Artificial Kuramoto Oscillatory Neurons [65.16453738828672]
しきい値単位の動的代替として人工内蔵ニューロン(AKOrN)を導入する。
このアイデアは、幅広いタスクにまたがってパフォーマンス改善をもたらすことを示しています。
これらの経験的結果は、神経表現の最も基本的なレベルにおいて、私たちの仮定の重要性を示していると信じている。
論文 参考訳(メタデータ) (2024-10-17T17:47:54Z) - Exploiting Chaotic Dynamics as Deep Neural Networks [1.9282110216621833]
カオスの本質は、様々な最先端のディープニューラルネットワークで見ることができる。
本フレームワークは精度,収束速度,効率の点で優れた結果を提示する。
この研究は、情報処理において長い間見過ごされてきたカオスの統合のための新しい道を提供する。
論文 参考訳(メタデータ) (2024-05-29T22:03:23Z) - Exploring neural oscillations during speech perception via surrogate gradient spiking neural networks [59.38765771221084]
本稿では、ディープラーニングフレームワークと互換性があり、スケーラブルな、生理学的にインスパイアされた音声認識アーキテクチャを提案する。
本研究では, 終末から終末までの勾配降下訓練が, 中枢スパイク神経ネットワークにおける神経振動の出現に繋がることを示す。
本研究は, スパイク周波数適応やリカレント接続などのフィードバック機構が, 認識性能を向上させるために, 神経活動の調節と同期に重要な役割を担っていることを明らかにする。
論文 参考訳(メタデータ) (2024-04-22T09:40:07Z) - Reasoning Algorithmically in Graph Neural Networks [1.8130068086063336]
ニューラルネットワークの適応学習能力にアルゴリズムの構造的および規則に基づく推論を統合することを目的としている。
この論文は、この領域の研究に理論的および実践的な貢献を提供する。
論文 参考訳(メタデータ) (2024-02-21T12:16:51Z) - Discrete, compositional, and symbolic representations through attractor dynamics [51.20712945239422]
我々は,思考の確率的言語(PLoT)に似た認知過程をモデル化するために,アトラクタダイナミクスを記号表現と統合した新しいニューラルシステムモデルを導入する。
我々のモデルは、連続表現空間を、事前定義されたプリミティブに頼るのではなく、教師なし学習を通じて、記号系の意味性と構成性の特徴を反映する、記号列に対応する引き付け状態を持つ離散盆地に分割する。
このアプローチは、認知操作の複雑な双対性を反映したより包括的なモデルを提供する、AIにおける表現力の証明された神経弁別可能な基質であるニューラルダイナミクスを通じて、シンボル処理とサブシンボル処理の両方を統合する統一的なフレームワークを確立する。
論文 参考訳(メタデータ) (2023-10-03T05:40:56Z) - A Novel Neural-symbolic System under Statistical Relational Learning [50.747658038910565]
本稿では,GBPGRと呼ばれる2段階の確率的グラフィカル推論フレームワークを提案する。
GBPGRでは、シンボル推論の結果を用いて、ディープラーニングモデルによる予測を洗練し、修正する。
提案手法は高い性能を示し, 帰納的タスクと帰納的タスクの両方において効果的な一般化を示す。
論文 参考訳(メタデータ) (2023-09-16T09:15:37Z) - Learning low-dimensional dynamics from whole-brain data improves task
capture [2.82277518679026]
逐次変分オートエンコーダ(SVAE)を用いたニューラルダイナミクスの低次元近似学習手法を提案する。
本手法は,従来の手法よりも精度の高い認知過程を予測できるスムーズなダイナミクスを見出す。
我々は、モータ、ワーキングメモリ、リレーショナル処理タスクを含む様々なタスクfMRIデータセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2023-05-18T18:43:13Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Rejecting Cognitivism: Computational Phenomenology for Deep Learning [5.070542698701158]
本稿では,新しい手法である計算現象学に基づくディープラーニングのための非表現主義的フレームワークを提案する。
我々は、人工知能が外部エンティティの表現を符号化する深層学習の現代の認知論的解釈を拒絶する。
論文 参考訳(メタデータ) (2023-02-16T20:05:06Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - A brain basis of dynamical intelligence for AI and computational
neuroscience [0.0]
より多くの脳のような能力は、新しい理論、モデル、および人工学習システムを設計する方法を要求するかもしれない。
本稿は,第6回US/NIH BRAIN Initiative Investigators Meetingにおける動的神経科学と機械学習に関するシンポジウムに触発されたものです。
論文 参考訳(メタデータ) (2021-05-15T19:49:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。