論文の概要: Reservoir Computation with Networks of Differentiating Neuron Ring Oscillators
- arxiv url: http://arxiv.org/abs/2507.21377v1
- Date: Mon, 28 Jul 2025 22:57:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:55.367437
- Title: Reservoir Computation with Networks of Differentiating Neuron Ring Oscillators
- Title(参考訳): 微分ニューロンリングオシレータネットワークを用いた貯留層計算
- Authors: Alexander Yeung, Peter DelMastro, Arjun Karuvally, Hava Siegelmann, Edward Rietman, Hananel Hazan,
- Abstract要約: 本稿では,ニューロンを貯水池計算基板として統合する代わりに,入力の変化がある場合にのみ活動する分化ニューロンの小さな世界グラフを紹介する。
MNISTの数値認識タスクにおいて、これらのネットワークの有効性を実証し、既存の貯水池計算手法に匹敵する性能を90.65%達成した。
- 参考スコア(独自算出の注目度): 38.00713966087315
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reservoir Computing is a machine learning approach that uses the rich repertoire of complex system dynamics for function approximation. Current approaches to reservoir computing use a network of coupled integrating neurons that require a steady current to maintain activity. Here, we introduce a small world graph of differentiating neurons that are active only when there are changes in input as an alternative to integrating neurons as a reservoir computing substrate. We find the coupling strength and network topology that enable these small world networks to function as an effective reservoir. We demonstrate the efficacy of these networks in the MNIST digit recognition task, achieving comparable performance of 90.65% to existing reservoir computing approaches. The findings suggest that differentiating neurons can be a potential alternative to integrating neurons and can provide a sustainable future alternative for power-hungry AI applications.
- Abstract(参考訳): Reservoir Computingは、関数近似に複雑なシステムダイナミクスの豊富なレパートリーを使用する機械学習アプローチである。
貯水池コンピューティングへの現在のアプローチは、活動を維持するために安定した電流を必要とする結合統合ニューロンのネットワークを使用する。
本稿では,ニューロンを貯水池計算基板として統合する代わりに,入力の変化がある場合にのみ活動する分化ニューロンの小さな世界グラフを紹介する。
我々はこれらの小さな世界ネットワークが効果的な貯水池として機能できる結合強度とネットワークトポロジーを見出した。
MNISTの数値認識タスクにおいて、これらのネットワークの有効性を実証し、既存の貯水池計算手法に匹敵する性能を90.65%達成した。
この結果は、神経細胞の分化がニューロンの統合の代替になり得ることを示唆し、パワーハングリーなAIアプリケーションに持続可能な代替手段を提供することができる。
関連論文リスト
- A Graph Sufficiency Perspective for Neural Networks [4.872570541276082]
本稿では,グラフ変数と統計的十分性を用いてニューラルネットワークを解析する。
無限幅の限界を保ち、訓練を通して保存されていることを証明した。
この研究は、統計十分性、グラフ理論表現、ディープラーニングを橋渡しし、ニューラルネットワークの新しい統計的理解を提供する。
論文 参考訳(メタデータ) (2025-07-14T12:31:47Z) - From Neurons to Computation: Biological Reservoir Computing for Pattern Recognition [3.342739594466204]
我々は、培養された生体ニューロンのプールを貯水池基質として活用し、生物貯水池コンピューティング(BRC)を創出する新しい貯水池コンピューティングのパラダイムを導入する。
このシステムはエコー状態ネットワーク(ESN)と同様に動作し、神経活動が培養されたニューロンのネットワークによって生成されることが鍵となる。
結果は、従来のニューラルネットワークで処理されるタスクを実行するために、生物学的ニューラルネットワークを使用することの可能性を示している。
論文 参考訳(メタデータ) (2025-05-06T13:20:04Z) - Infinite-dimensional reservoir computing [9.152759278163954]
インプット/アウトプットシステムの新しい概念クラスに対して,貯留層計算の近似と一般化境界が証明された。
本研究の結果は,完全実装可能なリカレントニューラルネットワークに基づく学習アルゴリズムであり,コンバージェンス保証が保証されている。
論文 参考訳(メタデータ) (2023-04-02T08:59:12Z) - POPPINS : A Population-Based Digital Spiking Neuromorphic Processor with
Integer Quadratic Integrate-and-Fire Neurons [50.591267188664666]
2つの階層構造を持つ180nmプロセス技術において,集団に基づくディジタルスパイキングニューロモルフィックプロセッサを提案する。
提案手法は,生体模倣型ニューロモルフィックシステム,低消費電力,低遅延推論処理アプリケーションの開発を可能にする。
論文 参考訳(メタデータ) (2022-01-19T09:26:34Z) - Optimal Approximation with Sparse Neural Networks and Applications [0.0]
深い疎結合ニューラルネットワークを用いて、関数クラスの複雑性を$L(mathbb Rd)$で測定する。
また、ニューラルネットワークを誘導する関数の可算コレクションである表現システムについても紹介する。
次に、レート歪曲理論とウェッジレット構成を用いて、$beta$マンガ的関数と呼ばれるクラスの複雑性を分析する。
論文 参考訳(メタデータ) (2021-08-14T05:14:13Z) - A biologically plausible neural network for multi-channel Canonical
Correlation Analysis [12.940770779756482]
皮質錐体ニューロンは、複数の神経集団から入力を受け取り、これらの入力を別々の樹状体区画に統合する。
我々は,生物学的に妥当なニューラルネットワークで実装可能なマルチチャネルCAAアルゴリズムを提案する。
生物学的信頼性のためには、ネットワークはオンライン環境で動作し、シナプス更新ルールはローカルである必要がある。
論文 参考訳(メタデータ) (2020-10-01T16:17:53Z) - Spiking Neural Networks Hardware Implementations and Challenges: a
Survey [53.429871539789445]
スパイキングニューラルネットワークは、ニューロンとシナプスの操作原理を模倣する認知アルゴリズムである。
スパイキングニューラルネットワークのハードウェア実装の現状について述べる。
本稿では,これらのイベント駆動アルゴリズムの特性をハードウェアレベルで活用するための戦略について論じる。
論文 参考訳(メタデータ) (2020-05-04T13:24:00Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。