論文の概要: Fast deep learning correspondence for neuron tracking and identification
in C.elegans using synthetic training
- arxiv url: http://arxiv.org/abs/2101.08211v1
- Date: Wed, 20 Jan 2021 16:46:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 01:15:29.019782
- Title: Fast deep learning correspondence for neuron tracking and identification
in C.elegans using synthetic training
- Title(参考訳): 合成学習を用いたC.elegansのニューロン追跡と同定のための高速深層学習対応
- Authors: Xinwei Yu, Matthew S. Creamer, Francesco Randi, Anuj K. Sharma, Scott
W. Linderman, Andrew M. Leifer
- Abstract要約: 本稿では,C. elegans のニューロンを自動追跡・同定する手法を "fast Deep Learning Correspondence" あるいは fDLC と呼ぶ。
このモデルは、経験的に派生した合成データに基づいて1回訓練され、転送学習を介して実際の動物間の神経通信を予測します。
この手法は高速で、10ミリ秒で対応を予測し、将来のリアルタイムアプリケーションに適している。
- 参考スコア(独自算出の注目度): 9.77946326471903
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present an automated method to track and identify neurons in C. elegans,
called "fast Deep Learning Correspondence" or fDLC, based on the transformer
network architecture. The model is trained once on empirically derived
synthetic data and then predicts neural correspondence across held-out real
animals via transfer learning. The same pre-trained model both tracks neurons
across time and identifies corresponding neurons across individuals.
Performance is evaluated against hand-annotated datasets, including NeuroPAL
[1]. Using only position information, the method achieves 80.0% accuracy at
tracking neurons within an individual and 65.8% accuracy at identifying neurons
across individuals. Accuracy is even higher on a published dataset [2].
Accuracy reaches 76.5% when using color information from NeuroPAL. Unlike
previous methods, fDLC does not require straightening or transforming the
animal into a canonical coordinate system. The method is fast and predicts
correspondence in 10 ms making it suitable for future real-time applications.
- Abstract(参考訳): 本稿では,C. elegans のニューロンの追跡と同定を行う "fast Deep Learning Cor correspondingence" あるいは fDLC という,トランスフォーマーネットワークアーキテクチャに基づく自動手法を提案する。
このモデルは、経験的な合成データに基づいて一度訓練され、転送学習を通じて、保持された実動物間の神経対応を予測する。
同じ事前訓練されたモデルは、時間にわたってニューロンを追跡し、個々のニューロンを識別する。
パフォーマンスはneuropal [1]を含む手書きのデータセットに対して評価される。
位置情報のみを用いて、個体内のニューロンを追跡する精度は80.0%、個体間の神経細胞を特定する精度は65.8%である。
公開されたデータセット [2] の精度はさらに高い。
NeuroPALの色情報を使用する場合、精度は76.5%に達する。
従来の方法とは異なり、fDLCは動物を正準座標系に変換する必要はない。
この手法は高速で、10ミリ秒で対応を予測し、将来のリアルタイムアプリケーションに適している。
関連論文リスト
- Rethinking Deep Learning: Propagating Information in Neural Networks without Backpropagation and Statistical Optimization [0.0]
本研究では,構造を模倣するニューラルネットワークとして,情報伝達機能とNNの応用の可能性について論じる。
本研究では,段差関数をアクティベーション関数として使用し,0~15層を隠蔽し,重み更新を行わない完全連結層からなるNNSアーキテクチャを提案する。
ラベル毎のトレーニングデータの平均出力ベクトルとテストデータの出力ベクトルをベクトル類似度に基づいて比較して精度を算出する。
論文 参考訳(メタデータ) (2024-08-18T09:22:24Z) - Deep Learning for real-time neural decoding of grasp [0.0]
本稿では,ニューラルネットワークの復号化のためのDeep Learningに基づく手法を提案する。
提案手法の主な目的は、これまでの神経科学知識に頼ることなく、最先端の復号精度を改善することである。
論文 参考訳(メタデータ) (2023-11-02T08:26:29Z) - WaLiN-GUI: a graphical and auditory tool for neuron-based encoding [73.88751967207419]
ニューロモルフィックコンピューティングはスパイクベースのエネルギー効率の高い通信に依存している。
本研究では, スパイクトレインへのサンプルベースデータの符号化に適した構成を同定するツールを開発した。
WaLiN-GUIはオープンソースとドキュメントが提供されている。
論文 参考訳(メタデータ) (2023-10-25T20:34:08Z) - A Bio-Inspired Chaos Sensor Model Based on the Perceptron Neural
Network: Machine Learning Concept and Application for Computational
Neuro-Science [0.0]
本研究では,神経力学系におけるスパイクトレインのエントロピー推定のための知覚神経ネットワークに基づくバイオインスパイアされたカオスセンサモデルを提案する。
このモデルはスパイク信号のカオス的挙動を動的に追跡し、この情報を神経力学モデルの他の部分に送信してさらなる処理を行うことができる。
論文 参考訳(メタデータ) (2023-06-03T03:36:47Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z) - Gradient-Free Neural Network Training via Synaptic-Level Reinforcement
Learning [0.0]
学習を実現する特定の脳領域に、一貫性のあるシナプスレベルの学習メカニズムが存在すると広く信じられている。
本稿では,単純なシナプスレベルの学習ポリシーを生成し,適用するための強化学習に基づくアルゴリズムを提案する。
勾配への頑丈さと依存の欠如は、困難で微分の難しいニューラルネットワークを訓練するための新しいテクニックの扉を開く。
論文 参考訳(メタデータ) (2021-05-29T22:26:18Z) - Adaptive conversion of real-valued input into spike trains [91.3755431537592]
本稿では,実数値入力をスパイクトレインに変換し,スパイクニューラルネットワークで処理する方法を提案する。
提案手法は網膜神経節細胞の適応的挙動を模倣し,入力ニューロンが入力の統計の変化に応答することを可能にする。
論文 参考訳(メタデータ) (2021-04-12T12:33:52Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z) - The training accuracy of two-layer neural networks: its estimation and
understanding using random datasets [0.0]
本研究では,空間分割に基づく新しい理論を提案し,ランダムデータセット上の2層ニューラルネットワークのトレーニング精度をトレーニングなしで推定する。
提案手法は,3つの引数のみを用いて,2種類のランダムデータセット上での2層完全連結ニューラルネットワークのトレーニング精度を推定する。
論文 参考訳(メタデータ) (2020-10-26T07:21:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。