論文の概要: Biological Processing Units: Leveraging an Insect Connectome to Pioneer Biofidelic Neural Architectures
- arxiv url: http://arxiv.org/abs/2507.10951v1
- Date: Tue, 15 Jul 2025 03:31:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-16 19:46:02.967734
- Title: Biological Processing Units: Leveraging an Insect Connectome to Pioneer Biofidelic Neural Architectures
- Title(参考訳): 生物処理ユニット: 昆虫のコネクトームをパイオニア生物由来の神経アーキテクチャに活用する
- Authors: Siyu Yu, Zihan Qin, Tingshan Liu, Beiya Xu, R. Jacob Vogelstein, Jason Brown, Joshua T. Vogelstein,
- Abstract要約: ショウジョウバエ幼虫の脳の完全なコネクトームは、生物学的に進化した回路が人工知能をサポートするかどうかを調査するユニークな機会を提供する。
我々は,この配線図を,シナプス接続から直接導かれる固定ネットワークであるBPU(Biological Processing Unit)に変換する。
最も小さな3000のニューロンと65,000の重みがあるにもかかわらず、修正されていないBPUはMNISTで98%、CIFAR-10で58%の精度を達成し、サイズマッチングされたパラメータを超えた。
これらの結果は、複雑な認知タスクをサポートし、将来の作業においてより大きくよりインテリジェントなコネクトームへのスケーリングを動機付ける、生体中心神経アーキテクチャの可能性を示している。
- 参考スコア(独自算出の注目度): 5.459524614513537
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The complete connectome of the Drosophila larva brain offers a unique opportunity to investigate whether biologically evolved circuits can support artificial intelligence. We convert this wiring diagram into a Biological Processing Unit (BPU), a fixed recurrent network derived directly from synaptic connectivity. Despite its modest size 3,000 neurons and 65,000 weights between them), the unmodified BPU achieves 98% accuracy on MNIST and 58% on CIFAR-10, surpassing size-matched MLPs. Scaling the BPU via structured connectome expansions further improves CIFAR-10 performance, while modality-specific ablations reveal the uneven contributions of different sensory subsystems. On the ChessBench dataset, a lightweight GNN-BPU model trained on only 10,000 games achieves 60% move accuracy, nearly 10x better than any size transformer. Moreover, CNN-BPU models with ~2M parameters outperform parameter-matched Transformers, and with a depth-6 minimax search at inference, reach 91.7% accuracy, exceeding even a 9M-parameter Transformer baseline. These results demonstrate the potential of biofidelic neural architectures to support complex cognitive tasks and motivate scaling to larger and more intelligent connectomes in future work.
- Abstract(参考訳): ショウジョウバエ幼虫の脳の完全なコネクトームは、生物学的に進化した回路が人工知能をサポートするかどうかを調査するユニークな機会を提供する。
我々は,この配線図を,シナプス接続から直接導かれる固定リカレントネットワークであるBPU(Biological Processing Unit)に変換する。
最も小さな3000のニューロンと65,000の重みがあるにもかかわらず、修正されていないBPUはMNISTで98%、CIFAR-10で58%の精度を達成し、サイズにマッチしたMLPを上回ります。
構造的コネクトーム拡張によるBPUのスケーリングにより、CIFAR-10の性能がさらに向上する一方、モダリティ特異的な改善により、異なる感覚サブシステムの不均一な寄与が明らかになる。
ChessBenchデータセットでは、1万のゲームでトレーニングされた軽量GNN-BPUモデルが60%の移動精度を実現している。
さらに、CNN-BPUモデルはパラメータ整合トランスフォーマーよりも2Mパラメータが優れており、推論時に深度6のミニマックスサーチで91.7%の精度に達し、9Mパラメータートランスフォーマーベースラインを超えている。
これらの結果は、複雑な認知タスクをサポートし、将来の作業においてより大きくよりインテリジェントなコネクトームへのスケーリングを動機付ける、生体中心神経アーキテクチャの可能性を示している。
関連論文リスト
- BrainSymphony: A Transformer-Driven Fusion of fMRI Time Series and Structural Connectivity [2.3486335708866606]
BrainSymphonyは、ニューロイメージングのための軽量でパラメータ効率の良い基礎モデルである。
かなり小さなパブリックデータセットで事前トレーニングされた状態で、最先端のパフォーマンスを実現する。
BrainSymphonyは、アーキテクチャを意識したマルチモーダルモデルがより大きなモデルを上回る可能性があることを証明している。
論文 参考訳(メタデータ) (2025-06-23T06:00:21Z) - CEReBrO: Compact Encoder for Representations of Brain Oscillations Using Efficient Alternating Attention [53.539020807256904]
交互注意(CEReBrO)を用いた脳振動の表現のための圧縮法について紹介する。
トークン化方式は、チャネルごとのパッチで脳波信号を表現します。
本研究では,チャネル内時間的ダイナミックスとチャネル間空間的相関を共同でモデル化し,通常の自己アテンションに比べて6倍少ないメモリで2倍の速度向上を実現するための注意機構を提案する。
論文 参考訳(メタデータ) (2025-01-18T21:44:38Z) - Advancing the Biological Plausibility and Efficacy of Hebbian Convolutional Neural Networks [0.0]
本稿では,画像処理のための畳み込みニューラルネットワーク(CNN)へのヘビアン学習の統合について述べる。
ヘビアン学習は、局所的な教師なしの神経情報に基づいて特徴表現を形成する。
その結果, より複雑で受容的な領域を通じて, まばらな階層的学習の徴候がみられた。
論文 参考訳(メタデータ) (2025-01-06T12:29:37Z) - Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングは、スパイキングニューラルネットワーク(SNN)を使用して推論タスクを実行する。
スパイクニューロン間で交換される各スパイクに小さなペイロードを埋め込むことで、エネルギー消費を増大させることなく推論精度を高めることができる。
分割コンピューティング — SNNを2つのデバイスに分割する — は、有望なソリューションだ。
本稿では,マルチレベルSNNを用いたニューロモルフィック無線分割コンピューティングアーキテクチャの総合的研究について述べる。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - Application of Quantum Tensor Networks for Protein Classification [3.5300092061072523]
タンパク質配列は自然言語処理における文として考えることができることを示す。
我々は、その細胞内位置に基づいてタンパク質を分類する。
量子ネットワーク(QTN)がタンパク質配列の複雑さと多様性を効果的に処理できることを実証する。
論文 参考訳(メタデータ) (2024-03-11T16:47:09Z) - Mem-elements based Neuromorphic Hardware for Neural Network Application [0.0]
この論文は、低消費電力の機械学習アクセラレーターにおけるmemristiveとmemcapacitiveのクロスバーアレイの利用を調査し、ディープニューラルネットワーク(DNN)のための包括的な共設計フレームワークを提供する。
このモデルは、PythonとPyTorchのハイブリッドアプローチによって実装され、8層VGGネットワーク上のメモリとメモリ容量のクロスバーアレイを備えたCIFAR-10データセットに対して、例外的なトレーニング精度90.02%と91.03%を達成した。
論文 参考訳(メタデータ) (2024-03-05T14:28:40Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Spikformer: When Spiking Neural Network Meets Transformer [102.91330530210037]
本稿では,スパイキングニューラルネットワーク(SNN)と自己認識機構という,生物学的にもっとも有効な2つの構造について考察する。
我々は、スパイキング・セルフ・アテンション(SSA)と、スパイキング・トランスフォーマー(Spikformer)という強力なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-29T14:16:49Z) - Differentiable Agent-based Epidemiology [71.81552021144589]
GradABM(GradABM)は、エージェントベースのモデリングのためのスケーラブルで微分可能な設計で、勾配に基づく学習と自動微分が可能である。
GradABMは、コモディティハードウェア上で数秒で数百万の人口をシミュレートし、ディープニューラルネットワークと統合し、異種データソースを取り込みます。
論文 参考訳(メタデータ) (2022-07-20T07:32:02Z) - Bioformers: Embedding Transformers for Ultra-Low Power sEMG-based
Gesture Recognition [21.486555297061717]
人間と機械の相互作用は、義手やロボットアームの制御など、リハビリ作業において勢いを増している。
表面筋電図(sEMG)信号を利用したジェスチャー認識は最も有望なアプローチの一つである。
しかし、同様のジェスチャーが同様の筋収縮をもたらすため、これらの信号の分析は依然として多くの課題を呈している。
論文 参考訳(メタデータ) (2022-03-24T08:37:26Z) - A Battle of Network Structures: An Empirical Study of CNN, Transformer,
and MLP [121.35904748477421]
畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンのための支配的なディープニューラルネットワーク(DNN)アーキテクチャである。
トランスフォーマーとマルチ層パーセプトロン(MLP)ベースのモデル(Vision TransformerやVision-Mixer)が新しいトレンドを導い始めた。
本稿では,これらのDNN構造について実証的研究を行い,それぞれの長所と短所を理解しようとする。
論文 参考訳(メタデータ) (2021-08-30T06:09:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。