論文の概要: Neural Population Geometry and Optimal Coding of Tasks with Shared
Latent Structure
- arxiv url: http://arxiv.org/abs/2402.16770v1
- Date: Mon, 26 Feb 2024 17:39:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 19:51:33.004040
- Title: Neural Population Geometry and Optimal Coding of Tasks with Shared
Latent Structure
- Title(参考訳): 共有潜在構造を有するタスクのニューラルポピュレーション幾何と最適符号化
- Authors: Albert J. Wakhloo, Will Slatton, and SueYeon Chung
- Abstract要約: 我々は,多タスク学習問題において,神経集団の活動のメソスコピック統計と一般化性能を関連付ける理論を開発した。
実験により得られた因子化(あるいは非絡み合い)表現が最適解として自然に現れることを示す。
続いて、データが不足している場合、最適なコードは情報に富んだ潜伏変数を圧縮せず、データが豊富であれば、最適なコードは状態空間にこの情報を拡大することを示す。
- 参考スコア(独自算出の注目度): 4.490493754303233
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans and animals can recognize latent structures in their environment and
apply this information to efficiently navigate the world. Several recent works
argue that the brain supports these abilities by forming neural representations
that encode such latent structures in flexible, generalizable ways. However, it
remains unclear what aspects of neural population activity are contributing to
these computational capabilities. Here, we develop an analytical theory linking
the mesoscopic statistics of a neural population's activity to generalization
performance on a multi-task learning problem. To do this, we rely on a
generative model in which different tasks depend on a common, unobserved latent
structure and predictions are formed from a linear readout of a neural
population's activity. We show that three geometric measures of the population
activity determine generalization performance in these settings. Using this
theory, we find that experimentally observed factorized (or disentangled)
representations naturally emerge as an optimal solution to the multi-task
learning problem. We go on to show that when data is scarce, optimal codes
compress less informative latent variables, and when data is abundant, optimal
codes expand this information in the state space. We validate predictions from
our theory using biological and artificial neural network data. Our results
therefore tie neural population geometry to the multi-task learning problem and
make normative predictions of the structure of population activity in these
settings.
- Abstract(参考訳): 人間や動物は環境中の潜在構造を認識し、この情報を使って効率的に世界をナビゲートすることができる。
いくつかの最近の研究は、脳がこれらの能力をサポートし、そのような潜在構造を柔軟で一般化可能な方法でエンコードする神経表現を形成すると主張している。
しかし、神経集団活動のどの側面がこれらの計算能力に寄与しているかはまだ不明である。
そこで我々は,多タスク学習問題における神経集団の活動のメソスコピック統計と一般化性能を結びつける解析理論を開発した。
これを実現するために、異なるタスクが共通の観測不能な潜在構造に依存する生成モデルに依存し、予測は神経集団の活動の線形な読み出しから形成される。
人口活動の3つの幾何学的尺度は,これらの設定において一般化性能を決定する。
この理論を用いて、実験的に観察された因子化(あるいは非絡み合い)表現が、マルチタスク学習問題の最適解として自然に現れることを発見した。
続いて、データが不足している場合、最適なコードは情報に富んだ潜伏変数を圧縮し、データが豊富であれば、この情報を状態空間に拡張することを示す。
生物および人工ニューラルネットワークデータを用いた理論からの予測を検証する。
そこで本研究では,神経集団の幾何構造をマルチタスク学習問題に結びつけ,これらの環境での集団活動の構造を規範的に予測する。
関連論文リスト
- Towards Utilising a Range of Neural Activations for Comprehending Representational Associations [0.6554326244334868]
ディープニューラルネットワークにおける中間表現をラベル付けするアプローチでは,その振る舞いに関する貴重な情報を捕捉できないことを示す。
非極端レベルのアクティベーションには、調査する価値のある複雑な情報が含まれていると仮定する。
そこで本研究では,中間領域のロジットサンプルから得られたデータを用いて,スプリアス相関を緩和する手法を開発した。
論文 参考訳(メタデータ) (2024-11-15T07:54:14Z) - Don't Cut Corners: Exact Conditions for Modularity in Biologically Inspired Representations [52.48094670415497]
我々は、生物にインスパイアされた表現が、ソース変数(ソース)に関してモジュール化されるときの理論を開発する。
我々は、最適な生物学的にインスパイアされたリニアオートエンコーダのニューロンがモジュラー化されるかどうかを判断する情報源のサンプルに対して、必要かつ十分な条件を導出する。
我々の理論はどんなデータセットにも当てはまり、以前の研究で研究された統計的な独立性よりもはるかに長い。
論文 参考訳(メタデータ) (2024-10-08T17:41:37Z) - Efficient, probabilistic analysis of combinatorial neural codes [0.0]
ニューラルネットワークは、個々のニューロンの活動の組み合わせの形で入力を符号化する。
これらのニューラルネットワークは、その高次元性としばしば大量のデータのため、計算上の課題を示す。
従来の手法を小さな例に適用し,実験によって生成された大きなニューラルコードに適用する。
論文 参考訳(メタデータ) (2022-10-19T11:58:26Z) - Measures of Information Reflect Memorization Patterns [53.71420125627608]
異なるニューロンの活性化パターンの多様性は、モデル一般化と記憶の反映であることを示す。
重要なことは、情報組織が記憶の2つの形態を指していることである。
論文 参考訳(メタデータ) (2022-10-17T20:15:24Z) - Learnable latent embeddings for joint behavioral and neural analysis [3.6062449190184136]
CEBRAは、空間のマッピング、複雑なキネマティックな特徴の発見、視覚野からの自然映画の高速かつ高精度な復号化に利用できることを示す。
我々は、その精度を検証し、カルシウムと電気生理学の両方のデータセット、感覚と運動のタスク、そして種全体にわたる単純または複雑な振る舞いにその有用性を実証する。
論文 参考訳(メタデータ) (2022-04-01T19:19:33Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - Neuronal Learning Analysis using Cycle-Consistent Adversarial Networks [4.874780144224057]
我々は、-CycleGANと呼ばれる深層生成モデルを用いて、前学習と後学習の神経活動の間の未知のマッピングを学習する。
我々は,カルシウム蛍光信号を前処理し,訓練し,評価するためのエンドツーエンドパイプラインを開発し,その結果の深層学習モデルを解釈する手法を開発した。
論文 参考訳(メタデータ) (2021-11-25T13:24:19Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Neural population geometry: An approach for understanding biological and
artificial neural networks [3.4809730725241605]
生体および人工ニューラルネットワークの機能に関する洞察を提供する幾何学的アプローチの例を概観する。
神経集団幾何学は、生体と人工のニューラルネットワークにおける構造と機能の理解を統一する可能性がある。
論文 参考訳(メタデータ) (2021-04-14T18:10:34Z) - A Trainable Optimal Transport Embedding for Feature Aggregation and its
Relationship to Attention [96.77554122595578]
固定サイズのパラメータ化表現を導入し、与えられた入力セットから、そのセットとトレーニング可能な参照の間の最適な輸送計画に従って要素を埋め込み、集約する。
我々のアプローチは大規模なデータセットにスケールし、参照のエンドツーエンドのトレーニングを可能にすると同時に、計算コストの少ない単純な教師なし学習メカニズムも提供する。
論文 参考訳(メタデータ) (2020-06-22T08:35:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。