論文の概要: Helmholtz-Decomposition and Optical Flow: A new method to characterize
GCamP recordings
- arxiv url: http://arxiv.org/abs/2401.11008v1
- Date: Fri, 19 Jan 2024 20:05:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 18:30:15.095406
- Title: Helmholtz-Decomposition and Optical Flow: A new method to characterize
GCamP recordings
- Title(参考訳): ヘルムホルツ分解と光流:GCamP記録を特徴付ける新しい方法
- Authors: Michael Gerstenberger, Dominic Juestel, Silviu Bodea
- Abstract要約: スロー波睡眠は、記憶の強化との関連性から重要な認知状態である。
麻酔下のトランスジェニックマウスから記録されたデータは、ソース、シンク、流れのパターンを分析するためにどのように処理されるかを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: During deep sleep and under anaesthesia spontaneous patterns of cortical
activation frequently take the form of slow travelling waves. Slow wave sleep
is an important cognitive state especially because of its relevance for memory
consolidation. However, despite extensive research the exact mechanisms are
still ill-understood. Novel methods such as high speed widefield imaging of
GCamP activity offer new potentials. Here we show how data recorded from
transgenic mice under anesthesia can be processed to analyze sources, sinks and
patterns of flow. To make the best possible use of the data novel means of data
processing are necessary. Therefore, we (1) give a an brief account on
processes that play a role in generating slow waves and demonstrate (2) a novel
approach to characterize its patterns in GCamP recordings. While slow waves are
highly variable, it shows that some are surprisingly similar. To enable
quantitative means of analysis and examine the structure of such prototypical
events we propose a novel approach for the characterization of slow waves: The
Helmholtz-Decomposition of gradient-based Dense Optical Flow of the pixeldense
GCamP contrast (df/f). It allows to detect the sources and sinks of activation
and discern them from global patterns of neural flow. Aggregated features can
be analyzed with variational autoencoders. The results unravel regularities
between slow waves and shows how they relate to the experimental conditions.
The approach reveals a complex topology of different features in latent slow
wave space and identifies prototypical examples for each stage.
- Abstract(参考訳): 深い睡眠中や麻酔下において、皮質活性化の自発的なパターンは、しばしば遅い進行波の形をとる。
スロー波睡眠は、特に記憶の強化との関連性から重要な認知状態である。
しかし、広範な研究にもかかわらず、正確なメカニズムはまだ解明されていない。
GCamP活性の高速広視野イメージングのような新しい手法は、新しいポテンシャルを提供する。
本稿では, 麻酔下のトランスジェニックマウスから記録されたデータを用いて, ソース, シンク, フローパターンを分析する方法を示す。
データ処理の新たな手段を最大限に活用するには、データ処理が必要である。
そこで,(1)スロー波発生に重要な役割を果たしているプロセスについて簡単な説明を行い,(2)GCamP記録におけるパターンを特徴付ける新しいアプローチを実証する。
スローウェーブは非常に可変であるが、驚くほど類似しているものもある。
解析の定量的な手段とそのような原型的事象の構造を検討するために、ヘルムホルツ・デコンポジションによるpixeldense gcampコントラスト(df/f)の勾配に基づく高密度光流れのキャラクタリゼーションを提案する。
活性化の源や沈み込みを検出し、それらをグローバルなニューラルネットワークのパターンから識別することができる。
集約機能は変分オートエンコーダで分析できる。
その結果、遅い波の間の規則性を解明し、実験条件との関係を示す。
このアプローチは、遅延遅い波動空間における異なる特徴の複素位相を明らかにし、各ステージの原型例を特定する。
関連論文リスト
- TPP-Gaze: Modelling Gaze Dynamics in Space and Time with Neural Temporal Point Processes [63.95928298690001]
ニューラル・テンポラル・ポイント・プロセス(TPP)に基づく新規かつ原則化されたスキャンパスダイナミクスのアプローチであるTPP-Gazeを提案する。
提案手法は,最先端手法と比較して総合的に優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-30T19:22:38Z) - Video Anomaly Detection via Spatio-Temporal Pseudo-Anomaly Generation : A Unified Approach [49.995833831087175]
本研究は,画像のマスキング領域にペンキを塗布することにより,汎用的な映像時間PAを生成する手法を提案する。
さらに,OCC設定下での現実世界の異常を検出するための単純な統合フレームワークを提案する。
提案手法は,OCC設定下での既存のPAs生成および再構築手法と同等に動作する。
論文 参考訳(メタデータ) (2023-11-27T13:14:06Z) - Dynamic Tensor Decomposition via Neural Diffusion-Reaction Processes [24.723536390322582]
テンソル分解は マルチウェイデータ解析の 重要なツールです
動的EMbedIngs fOr Dynamic Algorithm dEcomposition (DEMOTE)を提案する。
シミュレーション研究と実世界の応用の両方において,本手法の利点を示す。
論文 参考訳(メタデータ) (2023-10-30T15:49:45Z) - Latent Temporal Flows for Multivariate Analysis of Wearables Data [0.9990687944474738]
本稿では,この設定に適した時系列の多変量モデリング手法であるLatent Temporal Flowsを紹介する。
提案手法は,マルチステップ予測ベンチマークにおいて常に最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-14T02:54:34Z) - Transient motion classification through turbid volumes via parallelized
single-photon detection and deep contrastive embedding [12.806431481376787]
並列化単一光子dEtection (CREPE) を用いた高速デコリレーションイベントの分類手法を提案する。
332時間s32ピクセルSPADアレイからのパラレル化スペックルを用いて、タービッドボリュームの下に隠された異なる非相関運動を高い感度で探索し分類することができる。
これは、例えば異常な脳血流のイベントを識別するなど、通常、深部組織の動きパターンを監視するために応用される可能性がある。
論文 参考訳(メタデータ) (2022-04-04T14:27:36Z) - Ultra-low Latency Spiking Neural Networks with Spatio-Temporal
Compression and Synaptic Convolutional Block [4.081968050250324]
スパイキングニューラルネットワーク(SNN)は、神経時間情報能力、低処理機能、高い生物学的妥当性を有する。
Neuro-MNIST、CIFAR10-S、DVS128ジェスチャデータセットは、個々のイベントをフレームに集約し、イベントストリーム分類の時間分解能を高める必要がある。
本研究では,NIST電流の時間ステップに個々のイベントを集約し,トレーニングや推論の遅延を低減する処理時間圧縮手法を提案する。
論文 参考訳(メタデータ) (2022-03-18T15:14:13Z) - DriPP: Driven Point Processes to Model Stimuli Induced Patterns in M/EEG
Signals [62.997667081978825]
我々はDriPPと呼ばれる新しい統計点過程モデルを開発する。
我々は、このモデルのパラメータを推定するために、高速で原理化された予測最大化(EM)アルゴリズムを導出する。
標準MEGデータセットの結果から,我々の手法が事象関連ニューラルレスポンスを明らかにすることが示された。
論文 参考訳(メタデータ) (2021-12-08T13:07:21Z) - Neural Particle Image Velocimetry [4.416484585765027]
本稿では,この問題に適応した畳み込みニューラルネットワーク,すなわちボリューム対応ネットワーク(VCN)を紹介する。
ネットワークは、合成データと実フローデータの両方を含むデータセット上で、徹底的にトレーニングされ、テストされる。
解析の結果,提案手法は現場における他の最先端手法と同等の精度を保ちながら,効率の向上を図っている。
論文 参考訳(メタデータ) (2021-01-28T12:03:39Z) - Wave Propagation of Visual Stimuli in Focus of Attention [77.4747032928547]
周囲の視覚環境の変化に対する迅速な反応は、計算資源を視覚領域の最も関連する場所に再配置する効率的な注意機構を必要とする。
本研究は, 営巣動物が提示する有効性と効率性を示す, 生物学的に有望な注目焦点モデルを提案する。
論文 参考訳(メタデータ) (2020-06-19T09:33:21Z) - Modeling Shared Responses in Neuroimaging Studies through MultiView ICA [94.31804763196116]
被験者の大規模なコホートを含むグループ研究は、脳機能組織に関する一般的な結論を引き出す上で重要である。
グループ研究のための新しい多視点独立成分分析モデルを提案し、各被験者のデータを共有独立音源と雑音の線形結合としてモデル化する。
まず、fMRIデータを用いて、被験者間の共通音源の同定における感度の向上を示す。
論文 参考訳(メタデータ) (2020-06-11T17:29:53Z) - Microvascular Dynamics from 4D Microscopy Using Temporal Segmentation [81.30750944868142]
経時的に脳血流量の変化を追跡でき, ピアル表面に向かって伝播する自発性動脈拡張を同定できる。
この新たなイメージング機能は、機能的磁気共鳴イメージング(fMRI)を基盤とした血行動態応答関数を特徴付けるための有望なステップである。
論文 参考訳(メタデータ) (2020-01-14T22:55:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。