論文の概要: Coupled Transformer Autoencoder for Disentangling Multi-Region Neural Latent Dynamics
- arxiv url: http://arxiv.org/abs/2510.20068v1
- Date: Wed, 22 Oct 2025 22:47:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:16.938289
- Title: Coupled Transformer Autoencoder for Disentangling Multi-Region Neural Latent Dynamics
- Title(参考訳): マルチレジオン型ニューラル潜時ダイナミクスのための結合型トランスフォーマーオートエンコーダ
- Authors: Ram Dyuthi Sristi, Sowmya Manojna Narasimha, Jingya Huang, Alice Despatin, Simon Musall, Vikash Gilja, Gal Mishne,
- Abstract要約: 複数の脳領域にまたがる何千ものニューロンからの同時記録は、各領域で共有される活動と、各領域に固有のダイナミクスの豊富な混合を示す。
我々は,結合トランスフォーマーオートエンコーダ (CTAE) を導入し,(i) 定常的,非線形的,および(ii) 共有と地域固有の構造を単一フレームワークで分離するシーケンスモデルを提案する。
CTAEはトランスフォーマーエンコーダとデコーダを使用して、長距離ニューラルダイナミクスをキャプチャし、各領域の潜在空間を共有およびプライベートサブスペースに明示的に分割する。
- 参考スコア(独自算出の注目度): 8.294287754474894
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Simultaneous recordings from thousands of neurons across multiple brain areas reveal rich mixtures of activity that are shared between regions and dynamics that are unique to each region. Existing alignment or multi-view methods neglect temporal structure, whereas dynamical latent variable models capture temporal dependencies but are usually restricted to a single area, assume linear read-outs, or conflate shared and private signals. We introduce the Coupled Transformer Autoencoder (CTAE) - a sequence model that addresses both (i) non-stationary, non-linear dynamics and (ii) separation of shared versus region-specific structure in a single framework. CTAE employs transformer encoders and decoders to capture long-range neural dynamics and explicitly partitions each region's latent space into orthogonal shared and private subspaces. We demonstrate the effectiveness of CTAE on two high-density electrophysiology datasets with simultaneous recordings from multiple regions, one from motor cortical areas and the other from sensory areas. CTAE extracts meaningful representations that better decode behavioral variables compared to existing approaches.
- Abstract(参考訳): 複数の脳領域にまたがる何千ものニューロンからの同時記録は、各領域で共有される活動と、各領域に固有のダイナミクスの豊富な混合を示す。
既存のアライメントやマルチビュー手法は時間的構造を無視するが、動的潜在変数モデルは時間的依存を捉えるが、通常は1つの領域に制限される。
両方に対応するシーケンスモデルであるCTAE(Coupled Transformer Autoencoder)を導入する。
(i)非定常非線形力学及び非線形力学
二 一つの枠組みにおける共有構造と地域固有の構造を分離すること。
CTAEはトランスフォーマーエンコーダとデコーダを使用して、長距離ニューラルダイナミクスをキャプチャし、各領域の潜在空間を直交共有およびプライベートサブスペースに明示的に分割する。
運動皮質野と感覚野から同時記録した2つの高密度電気生理学的データセットに対するCTAEの有効性を実証した。
CTAEは、既存のアプローチと比較して振る舞い変数を復号する意味のある表現を抽出する。
関連論文リスト
- Watch Where You Move: Region-aware Dynamic Aggregation and Excitation for Gait Recognition [55.52723195212868]
GaitRDAEは、自動的に動き領域を検索し、適応的な時間スケールを割り当て、対応する注意を向けるフレームワークである。
実験の結果、GaitRDAEはいくつかのベンチマークデータセットで最先端のパフォーマンスを達成することがわかった。
論文 参考訳(メタデータ) (2025-10-18T15:36:08Z) - Complementary and Contrastive Learning for Audio-Visual Segmentation [74.11434759171199]
本稿では,ローカル情報とグローバル情報の両方を処理可能な新しいフレームワークであるComplementary and Contrastive Transformer(CCFormer)を提案する。
提案手法は,S4, MS3, AVSSデータセットにまたがる最先端のベンチマークを新たに設定する。
論文 参考訳(メタデータ) (2025-10-11T06:36:59Z) - DynaMind: Reconstructing Dynamic Visual Scenes from EEG by Aligning Temporal Dynamics and Multimodal Semantics to Guided Diffusion [10.936858717759156]
我々は、ニューラルダイナミクスとセマンティックな特徴を共同でモデリングすることで、映像を再構成する新しいフレームワークであるDynaMindを紹介する。
SEED-DVデータセットでは、DynaMindが新しい最先端(SOTA)を設定し、再構成されたビデオの精度を12.5と10.3%向上させた。
これは重要な進歩であり、神経力学と高忠実な視覚意味論のギャップを埋める。
論文 参考訳(メタデータ) (2025-09-01T06:52:08Z) - FreSca: Scaling in Frequency Space Enhances Diffusion Models [55.75504192166779]
本稿では,潜時拡散モデルにおける周波数制御について検討する。
本稿では,低周波成分と高周波成分にノイズ差を分解する新しいフレームワークFreScaを紹介する。
FreScaはモデルの再トレーニングやアーキテクチャの変更なしに動作し、モデルとタスクに依存しない制御を提供する。
論文 参考訳(メタデータ) (2025-04-02T22:03:11Z) - Learning Locally Interacting Discrete Dynamical Systems: Towards Data-Efficient and Scalable Prediction [16.972017028598597]
局所力学系は局所的、比較的単純で、しばしば動的要素間の相互作用から複雑な大域的ダイナミクスを示す。
本稿では,Attentive Recurrent Cellular Automata(AR-NCA)を提案する。
AR-NCAは様々なシステム構成において優れた一般化性を示す。
論文 参考訳(メタデータ) (2024-04-09T17:00:43Z) - Multi-scale Dynamic and Hierarchical Relationship Modeling for Facial Action Units Recognition [38.62221940006509]
ヒューマン・フェイス・アクション・ユニット(AU)は階層的な方法で相互に関連している。
同じ/クローズな顔領域に位置するAUは、異なる顔領域よりも強い関係を示す。
本稿では,出現認識のための新しいマルチスケールAUモデルを提案する。
論文 参考訳(メタデータ) (2024-04-09T16:45:34Z) - A Decoupled Spatio-Temporal Framework for Skeleton-based Action
Segmentation [89.86345494602642]
既存の手法は、弱い時間的モデリング能力に制限されている。
この問題に対処するために、Decoupled Scoupled Framework (DeST)を提案する。
DeSTは計算量が少なく、現在の最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2023-12-10T09:11:39Z) - Implicit Neural Spatial Filtering for Multichannel Source Separation in
the Waveform Domain [131.74762114632404]
モデルはエンドツーエンドで訓練され、空間処理を暗黙的に実行する。
提案したモデルを実世界のデータセット上で評価し,そのモデルがオラクルビームフォーマの性能と一致することを示す。
論文 参考訳(メタデータ) (2022-06-30T17:13:01Z) - Coarse-to-Fine Video Denoising with Dual-Stage Spatial-Channel
Transformer [29.03463312813923]
Video Denoisingは、ノイズの多いビデオから高品質なフレームを復元することを目的としている。
既存のほとんどのアプローチでは、畳み込みニューラルネットワーク(CNN)を使用して、ノイズを元の視覚コンテンツから分離する。
粗大な映像をデノナイズするためのDual-stage Spatial-Channel Transformer (DSCT)を提案する。
論文 参考訳(メタデータ) (2022-04-30T09:01:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。