論文の概要: Real-time Neuron Segmentation for Voltage Imaging
- arxiv url: http://arxiv.org/abs/2403.16438v1
- Date: Mon, 25 Mar 2024 05:46:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-26 15:57:31.740571
- Title: Real-time Neuron Segmentation for Voltage Imaging
- Title(参考訳): 電圧イメージングのためのリアルタイムニューロンセグメンテーション
- Authors: Yosuke Bando, Ramdas Pillai, Atsushi Kajita, Farhan Abdul Hakeem, Yves Quemener, Hua-an Tseng, Kiryl D. Piatkevich, Changyang Linghu, Xue Han, Edward S. Boyden,
- Abstract要約: 画像サイズが制限された1分間の録音では、数万のフレームからなるビデオデータのギガバイトが生成されるため、処理に時間がかかる。
ノイズの多いビデオフレームから複数重重なりうるスパイクニューロンを検出できる高速ニューロン分割法を提案する。
我々のパイプラインは、散らばったデータセットから、人間のアノテーションによく一致するニューロンのフットプリントを抽出し、単一のデスクトップコンピュータ上で、電圧画像データのリアルタイム処理を初めて示す。
- 参考スコア(独自算出の注目度): 2.152138716190318
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In voltage imaging, where the membrane potentials of individual neurons are recorded at from hundreds to thousand frames per second using fluorescence microscopy, data processing presents a challenge. Even a fraction of a minute of recording with a limited image size yields gigabytes of video data consisting of tens of thousands of frames, which can be time-consuming to process. Moreover, millisecond-level short exposures lead to noisy video frames, obscuring neuron footprints especially in deep-brain samples where noisy signals are buried in background fluorescence. To address this challenge, we propose a fast neuron segmentation method able to detect multiple, potentially overlapping, spiking neurons from noisy video frames, and implement a data processing pipeline incorporating the proposed segmentation method along with GPU-accelerated motion correction. By testing on existing datasets as well as on new datasets we introduce, we show that our pipeline extracts neuron footprints that agree well with human annotation even from cluttered datasets, and demonstrate real-time processing of voltage imaging data on a single desktop computer for the first time.
- Abstract(参考訳): 電圧イメージングでは、蛍光顕微鏡を用いて、個々のニューロンの膜電位が毎秒数百から数千フレームに記録されるため、データ処理が課題となる。
画像サイズが制限された1分でも、数万フレームからなるビデオデータのギガバイトが生成されるため、処理に時間を要する可能性がある。
さらに、ミリ秒レベルの短い露光は、特にノイズ信号が背景蛍光に埋もれている深脳標本において、ノイズのあるビデオフレーム、特にニューロンのフットプリントを隠蔽する。
この課題に対処するため、我々は、複数の重重なりうる、ノイズの多いビデオフレームからニューロンをスパイクする高速ニューロンセグメンテーション法を提案し、GPU加速度運動補正とともに、提案したセグメンテーション法を組み込んだデータ処理パイプラインを実装した。
我々のパイプラインは、既存のデータセットや新しいデータセットをテストすることで、散らかったデータセットからでも人間のアノテーションによく一致するニューロンのフットプリントを抽出し、単一のデスクトップコンピュータ上で初めて電圧画像データのリアルタイム処理を実演する。
関連論文リスト
- bit2bit: 1-bit quanta video reconstruction via self-supervised photon prediction [57.199618102578576]
疎二分量時間画像データから高画質の画像スタックを元の解像度で再構成する新しい方法であるbit2bitを提案する。
Poisson denoisingの最近の研究に触発されて、スパースバイナリ光子データから高密度な画像列を生成するアルゴリズムを開発した。
本研究では,様々な課題の画像条件下でのSPADの高速映像を多種多種に含む新しいデータセットを提案する。
論文 参考訳(メタデータ) (2024-10-30T17:30:35Z) - FISBe: A real-world benchmark dataset for instance segmentation of long-range thin filamentous structures [4.9246627979592725]
神経系の体積光顕微鏡画像におけるニューロンのセグメンテーションは、神経科学における画期的な研究を可能にする。
しかし、マルチニューロン光顕微鏡のデータは、インスタンスセグメンテーションのタスクにとって非常に難しい特性を示している。
私たちはFlyLight Instance Benchmark(FISBe)データセットをリリースしました。
論文 参考訳(メタデータ) (2024-03-29T19:51:34Z) - Neuromorphic Synergy for Video Binarization [54.195375576583864]
バイモーダルオブジェクトは視覚システムによって容易に認識できる情報を埋め込む視覚形式として機能する。
ニューロモルフィックカメラは、動きのぼかしを緩和する新しい機能を提供するが、最初にブルーを脱色し、画像をリアルタイムでバイナライズするのは簡単ではない。
本稿では,イベント空間と画像空間の両方で独立に推論を行うために,バイモーダル目標特性の事前知識を活用するイベントベースバイナリ再構築手法を提案する。
また、このバイナリ画像を高フレームレートバイナリビデオに伝搬する効率的な統合手法も開発している。
論文 参考訳(メタデータ) (2024-02-20T01:43:51Z) - Learning Multimodal Volumetric Features for Large-Scale Neuron Tracing [72.45257414889478]
オーバーセグメントニューロン間の接続を予測し,人間の作業量を削減することを目的としている。
最初はFlyTracingという名前のデータセットを構築しました。
本稿では,高密度なボリュームEM画像の埋め込みを生成するための,新しい接続性を考慮したコントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-05T19:45:12Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - Ultrafast single-channel machine vision based on neuro-inspired photonic
computing [0.0]
ニューロインスパイアされたフォトニックコンピューティングは、超低レイテンシでマシンビジョン処理を高速化するための有望なアプローチである。
本稿では,1つの入力チャネルのみで実世界の視覚情報を光学的に処理する,イメージセンサフリーなマシンビジョンフレームワークを提案する。
提案手法は高速画像認識と異常検出が可能であり,さらに高速撮像にも有効であることを示す。
論文 参考訳(メタデータ) (2023-02-15T10:08:04Z) - Fast Non-Rigid Radiance Fields from Monocularized Data [66.74229489512683]
本稿では,不規則に変形するシーンを360度内向きに合成する新しい手法を提案する。
提案手法のコアとなるのは, 空間情報と時間情報の処理を分離し, 訓練と推論を高速化する効率的な変形モジュール, 2) 高速ハッシュ符号化ニューラルラジオアンスフィールドとしての標準シーンを表す静的モジュールである。
どちらの場合も,本手法は従来の手法よりもはるかに高速で,7分未満で収束し,1K解像度でリアルタイムのフレームレートを実現するとともに,生成した新規なビューに対して高い視覚的精度が得られる。
論文 参考訳(メタデータ) (2022-12-02T18:51:10Z) - Spatial-Temporal Frequency Forgery Clue for Video Forgery Detection in
VIS and NIR Scenario [87.72258480670627]
既存の周波数領域に基づく顔偽造検出手法では、GAN鍛造画像は、実際の画像と比較して、周波数スペクトルに明らかな格子状の視覚的アーチファクトを持つ。
本稿では,コサイン変換に基づくフォージェリークリュー拡張ネットワーク(FCAN-DCT)を提案し,より包括的な時空間特徴表現を実現する。
論文 参考訳(メタデータ) (2022-07-05T09:27:53Z) - EBBINNOT: A Hardware Efficient Hybrid Event-Frame Tracker for Stationary
Dynamic Vision Sensors [5.674895233111088]
本稿では,静止型ニューロモルフィックセンサによって記録された物体を検知・追跡するための複合イベントフレーム手法を提案する。
静的DVSの背景除去特性を活用するために,フレーム内のイベントの有無を通知するイベントベースバイナリ画像生成を提案する。
静止DVSベースのトラフィック監視ソリューションが、同時に記録されたRGBフレームベースの方法と比較されるのは、これが初めてである。
論文 参考訳(メタデータ) (2020-05-31T03:01:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。