論文の概要: CL API: Real-Time Closed-Loop Interactions with Biological Neural Networks
- arxiv url: http://arxiv.org/abs/2602.11632v1
- Date: Thu, 12 Feb 2026 06:29:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.676313
- Title: CL API: Real-Time Closed-Loop Interactions with Biological Neural Networks
- Title(参考訳): CL API: 生物学的ニューラルネットワークによるリアルタイムクローズドループインタラクション
- Authors: David Hogan, Andrew Doherty, Boon Kien Khoo, Johnson Zhou, Richard Salib, James Stewart, Kiaran Lawson, Alon Loeffler, Brett Kagan,
- Abstract要約: 生物学的ネットワーク(BNN)は、入力が時間的に、構造的に一貫した方法で配信される場合にのみ、信頼できる情報処理システムとして機能する。
BNNと対話するための既存のアプローチは、基本的なトレードオフに直面している。
Cortical Labs Application Programming Interface (CL API)は、BNNとリアルタイム、サブミリ秒のクローズドループインタラクションを可能にする。
- 参考スコア(独自算出の注目度): 0.7223361655030193
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Biological neural networks (BNNs) are increasingly explored for their rich dynamics, parallelism, and adaptive behavior. Beyond understanding their function as a scientific endeavour, a key focus has been using these biological systems as a novel computing substrate. However, BNNs can only function as reliable information-processing systems if inputs are delivered in a temporally and structurally consistent manner. In practice, this requires stimulation with precisely controlled structure, microsecond-scale timing, multi-channel synchronization, and the ability to observe and respond to neural activity in real-time. Existing approaches to interacting with BNNs face a fundamental trade-off: they either depend on low-level hardware mechanisms, imposing prohibitive complexity for rapid iteration, or they sacrifice temporal and structural control, undermining consistency and reproducibility - particularly in closed-loop experiments. The Cortical Labs Application Programming Interface (CL API) enables real-time, sub-millisecond closed-loop interactions with BNNs. Taking a contract-based API design approach, the CL API provides users with precise stimulation semantics, transactional admission, deterministic ordering, and explicit synchronization guarantees. This contract is presented through a declarative Python interface, enabling non-expert programmers to express complex stimulation and closed-loop behavior without managing low-level scheduling or hardware details. Ultimately, the CL API provides an accessible and reproducible foundation for real-time experimentation with BNNs, supporting both fundamental biological research and emerging neurocomputing applications.
- Abstract(参考訳): 生物学的ニューラルネットワーク(BNN)は、そのリッチなダイナミクス、並列性、適応的な振る舞いのためにますます研究されている。
科学的な取り組みとしての機能を理解することだけでなく、これらの生物学的システムを新しいコンピューティング基盤として利用することにも焦点が当てられている。
しかし、BNNは、入力が時間的に、構造的に一貫した方法で配信される場合にのみ、信頼できる情報処理システムとして機能する。
実際には、これは正確に制御された構造、マイクロ秒スケールのタイミング、マルチチャネル同期、リアルタイムで神経活動を観察し反応する能力による刺激を必要とする。
それらは低レベルのハードウェアメカニズムに依存し、迅速なイテレーションを禁止しているか、時間的および構造的制御を犠牲にし、一貫性と再現性を損なう – 特にクローズドループ実験では。
Cortical Labs Application Programming Interface (CL API)は、BNNとリアルタイム、サブミリ秒のクローズドループインタラクションを可能にする。
コントラクトベースのAPI設計アプローチを採用することで、CL APIは、ユーザに正確な刺激セマンティクス、トランザクションの受け入れ、決定論的順序付け、明示的な同期保証を提供する。
この契約は宣言的なPythonインターフェースを通じて提示され、非専門家プログラマは低レベルのスケジューリングやハードウェアの詳細を管理することなく、複雑な刺激やクローズドループの振る舞いを表現できる。
結局のところ、CL APIはBNNによるリアルタイム実験のためのアクセス可能で再現可能な基盤を提供し、基本的な生物学的研究と新しい神経計算アプリケーションの両方をサポートする。
関連論文リスト
- SelfAI: Building a Self-Training AI System with LLM Agents [79.10991818561907]
SelfAIは、高レベルの研究目的を標準化された実験構成に変換するためのUser Agentを組み合わせた、一般的なマルチエージェントプラットフォームである。
実験マネージャは、連続的なフィードバックのための構造化知識ベースを維持しながら、異種ハードウェアをまたいだ並列かつフォールトトレラントなトレーニングを編成する。
回帰、コンピュータビジョン、科学計算、医用画像、薬物発見ベンチマークなどを通じて、SelfAIは一貫して高いパフォーマンスを達成し、冗長な試行を減らしている。
論文 参考訳(メタデータ) (2025-11-29T09:18:39Z) - Generalizable, real-time neural decoding with hybrid state-space models [19.90083268518243]
本稿では、クロスアテンションモジュールによる個別スパイクトークン化と、再帰状態空間モデル(SSM)のバックボーンを組み合わせた、新しいハイブリッドアーキテクチャPOSSMを提案する。
サル運動タスクの皮質内復号におけるPOSSMの復号性能と推論速度を評価し,臨床応用に拡張することを示す。
これらすべてのタスクにおいて、POSSMは、最先端のトランスフォーマーに匹敵する復号精度を推論コストのごく一部で達成している。
論文 参考訳(メタデータ) (2025-06-05T17:57:08Z) - TESS: A Scalable Temporally and Spatially Local Learning Rule for Spiking Neural Networks [6.805933498669221]
リソース制約のあるデバイス上でのニューラルネットワーク(SNN)のトレーニングは、高い計算とメモリ要求のため、依然として困難である。
本稿では,SNNの学習のための時間的・空間的学習ルールであるTESSを紹介する。
本手法は,各ニューロン内の局所的な信号にのみ依存することにより,時間的および空間的クレジット割り当てに対処する。
論文 参考訳(メタデータ) (2025-02-03T21:23:15Z) - Hardware-Friendly Implementation of Physical Reservoir Computing with CMOS-based Time-domain Analog Spiking Neurons [0.26963330643873434]
本稿では, 相補的金属酸化物半導体(CMOS)プラットフォーム上でのハードウェアフレンドリーな物理貯水池計算のためのスパイクニューラルネットワーク(SNN)を提案する。
短期記憶と排他的ORタスクによるRCと、97.7%の精度で音声桁認識タスクを実演する。
論文 参考訳(メタデータ) (2024-09-18T00:23:00Z) - Contextualizing MLP-Mixers Spatiotemporally for Urban Data Forecast at Scale [54.15522908057831]
本稿では,STTD予測を大規模に行うためのコンピュータ・ミクサーの適応版を提案する。
我々の結果は、この単純な効率の良いソリューションが、いくつかのトラフィックベンチマークでテストした場合、SOTAベースラインに匹敵する可能性があることを驚くほど示している。
本研究は, 実世界のSTTD予測において, 簡便な有効モデルの探索に寄与する。
論文 参考訳(メタデータ) (2023-07-04T05:19:19Z) - A Comparison of Temporal Encoders for Neuromorphic Keyword Spotting with
Few Neurons [0.11726720776908518]
SNNにおける時間的エンコーディングと特徴抽出のための2つの神経計算要素について検討した。
リソース効率の良いキーワードスポッティングアプリケーションは、これらのエンコーダを使用することで恩恵を受けることができるが、時間定数と重み付けを学習する手法をさらに研究する必要がある。
論文 参考訳(メタデータ) (2023-01-24T12:50:54Z) - ETLP: Event-based Three-factor Local Plasticity for online learning with
neuromorphic hardware [105.54048699217668]
イベントベース3要素局所塑性(ETLP)の計算複雑性に明らかな優位性を有する精度の競争性能を示す。
また, 局所的可塑性を用いた場合, スパイキングニューロンの閾値適応, 繰り返しトポロジーは, 時間的構造が豊富な時間的パターンを学習するために必要であることを示した。
論文 参考訳(メタデータ) (2023-01-19T19:45:42Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。