論文の概要: Drop, Swap, and Generate: A Self-Supervised Approach for Generating
Neural Activity
- arxiv url: http://arxiv.org/abs/2111.02338v1
- Date: Wed, 3 Nov 2021 16:39:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-04 13:41:33.265981
- Title: Drop, Swap, and Generate: A Self-Supervised Approach for Generating
Neural Activity
- Title(参考訳): ドロップ、スワップ、ジェネレーション:神経活動生成のための自己監督的アプローチ
- Authors: Ran Liu, Mehdi Azabou, Max Dabagia, Chi-Heng Lin, Mohammad Gheshlaghi
Azar, Keith B. Hengen, Michal Valko, Eva L. Dyer
- Abstract要約: 我々はSwap-VAEと呼ばれる神経活動の不整合表現を学習するための新しい教師なしアプローチを導入する。
このアプローチは、生成モデリングフレームワークとインスタンス固有のアライメント損失を組み合わせたものです。
我々は、行動に関連付けられた関連する潜在次元に沿って、ニューラルネットワークをアンタングルする表現を構築することが可能であることを示す。
- 参考スコア(独自算出の注目度): 33.06823702945747
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Meaningful and simplified representations of neural activity can yield
insights into how and what information is being processed within a neural
circuit. However, without labels, finding representations that reveal the link
between the brain and behavior can be challenging. Here, we introduce a novel
unsupervised approach for learning disentangled representations of neural
activity called Swap-VAE. Our approach combines a generative modeling framework
with an instance-specific alignment loss that tries to maximize the
representational similarity between transformed views of the input (brain
state). These transformed (or augmented) views are created by dropping out
neurons and jittering samples in time, which intuitively should lead the
network to a representation that maintains both temporal consistency and
invariance to the specific neurons used to represent the neural state. Through
evaluations on both synthetic data and neural recordings from hundreds of
neurons in different primate brains, we show that it is possible to build
representations that disentangle neural datasets along relevant latent
dimensions linked to behavior.
- Abstract(参考訳): 神経活動の有意義で単純化された表現は、神経回路内でどのような情報が処理されているかについての洞察を与える。
しかしラベルがなければ、脳と行動の関係を明らかにする表現を見つけることは困難である。
本稿では,Swap-VAEと呼ばれる神経活動の非絡み合い表現を学習するための新しい教師なしアプローチを提案する。
提案手法では,入力(脳状態)の変換ビュー間の表現的類似性を最大化するために,生成モデリングフレームワークとインスタンス固有のアライメント損失を組み合わせる。
これらの変換された(または拡張された)ビューは、ニューロンをドロップアウトしてサンプルを揺らぎ、直感的にネットワークを神経状態を表すために使用される特定のニューロンに対する時間的一貫性と不変性の両方を維持する表現に導くべきである。
異なる霊長類脳の数百のニューロンから合成データと神経記録の両方を評価することで、行動に関連する潜伏次元に沿って神経データセットをアンタングルする表現を構築することができることを示す。
関連論文リスト
- Artificial Kuramoto Oscillatory Neurons [65.16453738828672]
しきい値単位の動的代替として人工内蔵ニューロン(AKOrN)を導入する。
このアイデアは、幅広いタスクにまたがってパフォーマンス改善をもたらすことを示しています。
これらの経験的結果は、神経表現の最も基本的なレベルにおいて、私たちの仮定の重要性を示していると信じている。
論文 参考訳(メタデータ) (2024-10-17T17:47:54Z) - Spiking representation learning for associative memories [0.0]
本稿では、教師なし表現学習と連想記憶操作を行う新しい人工スパイクニューラルネットワーク(SNN)を提案する。
モデルの構造は新皮質列状構造から派生し,隠れた表現を学習するためのフィードフォワードプロジェクションと,連想記憶を形成するための繰り返しプロジェクションを組み合わせたものである。
論文 参考訳(メタデータ) (2024-06-05T08:30:11Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Neuroformer: Multimodal and Multitask Generative Pretraining for Brain Data [3.46029409929709]
最先端のシステム神経科学実験は大規模なマルチモーダルデータを生み出し、これらのデータセットは分析のための新しいツールを必要とする。
視覚領域と言語領域における大きな事前学習モデルの成功に触発されて、我々は大規模な細胞分解性神経スパイクデータの解析を自己回帰生成問題に再構成した。
我々はまず、シミュレーションデータセットでNeuroformerを訓練し、本質的なシミュレートされた神経回路の動作を正確に予測し、方向を含む基盤となる神経回路の接続性を推定した。
論文 参考訳(メタデータ) (2023-10-31T20:17:32Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Deep Auto-encoder with Neural Response [8.797970797884023]
ニューラルレスポンス(DAE-NR)を用いたディープオートエンコーダと呼ばれるハイブリッドモデルを提案する。
DAE-NRは、視覚野からの情報をANNに組み込んで、より優れた画像再構成と、生物学的および人工ニューロン間の高い神経表現類似性を実現する。
DAE-NRは, 共同学習によって(画像再構成の性能の向上) 生体ニューロンと人工ニューロンとの表現的類似性の向上が可能であることを実証した。
論文 参考訳(メタデータ) (2021-11-30T11:44:17Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - Neuronal Learning Analysis using Cycle-Consistent Adversarial Networks [4.874780144224057]
我々は、-CycleGANと呼ばれる深層生成モデルを用いて、前学習と後学習の神経活動の間の未知のマッピングを学習する。
我々は,カルシウム蛍光信号を前処理し,訓練し,評価するためのエンドツーエンドパイプラインを開発し,その結果の深層学習モデルを解釈する手法を開発した。
論文 参考訳(メタデータ) (2021-11-25T13:24:19Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z) - Compositional Explanations of Neurons [52.71742655312625]
本稿では, 合成論理的概念を同定し, 深部表現におけるニューロンの説明手順について述べる。
本稿では,視覚と自然言語処理のモデルにおける解釈可能性に関するいくつかの疑問に答えるために,この手順を用いる。
論文 参考訳(メタデータ) (2020-06-24T20:37:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。