論文の概要: lfads-torch: A modular and extensible implementation of latent factor
analysis via dynamical systems
- arxiv url: http://arxiv.org/abs/2309.01230v1
- Date: Sun, 3 Sep 2023 17:33:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 20:41:06.973396
- Title: lfads-torch: A modular and extensible implementation of latent factor
analysis via dynamical systems
- Title(参考訳): lfads-torch:動的システムによる潜在因子分析のモジュラーで拡張可能な実装
- Authors: Andrew R. Sedler and Chethan Pandarinath
- Abstract要約: 動的システム(LFADS)による潜在因子分析は、RNNベースの変分シーケンシャルオートエンコーダである。
lfads-torch は LFADS のオープンソース実装であり、既存の変種を統一し、理解し、構成し、拡張しやすいように設計されている。
- 参考スコア(独自算出の注目度): 2.864713389096699
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Latent factor analysis via dynamical systems (LFADS) is an RNN-based
variational sequential autoencoder that achieves state-of-the-art performance
in denoising high-dimensional neural activity for downstream applications in
science and engineering. Recently introduced variants and extensions continue
to demonstrate the applicability of the architecture to a wide variety of
problems in neuroscience. Since the development of the original implementation
of LFADS, new technologies have emerged that use dynamic computation graphs,
minimize boilerplate code, compose model configuration files, and simplify
large-scale training. Building on these modern Python libraries, we introduce
lfads-torch -- a new open-source implementation of LFADS that unifies existing
variants and is designed to be easier to understand, configure, and extend.
Documentation, source code, and issue tracking are available at
https://github.com/arsedler9/lfads-torch .
- Abstract(参考訳): 動的システム(LFADS)による潜時因子分析は、RNNベースの変分シーケンシャルオートエンコーダであり、科学と工学における下流応用のための高次元神経活動の認知において最先端のパフォーマンスを達成する。
最近導入された変種や拡張は、神経科学における様々な問題に対するアーキテクチャの適用性を示している。
LFADSのオリジナルの実装が開発されて以来、動的計算グラフの使用、ボイラプレートコードの最小化、モデル構成ファイルの作成、大規模トレーニングの簡略化といった新しい技術が登場してきた。
alads-torch - LFADSの新しいオープンソース実装で、既存の変種を統一し、理解し、設定し、拡張しやすいように設計されています。
ドキュメンテーション、ソースコード、イシュートラッキングはhttps://github.com/arsedler9/lfads-torchで利用可能である。
関連論文リスト
- On Accelerating Edge AI: Optimizing Resource-Constrained Environments [1.7355861031903428]
リソース制約のあるエッジデプロイメントでは、厳格な計算、メモリ、エネルギー制限とハイパフォーマンスのバランスをとるAIソリューションが要求される。
本稿では,このような制約下でのディープラーニングモデルを加速するための主要な戦略について概観する。
論文 参考訳(メタデータ) (2025-01-25T01:37:03Z) - Architecture-Aware Learning Curve Extrapolation via Graph Ordinary Differential Equation [33.63030304318472]
本稿では,学習曲線を連続的に予測するアーキテクチャを考慮したニューラル微分方程式モデルを提案する。
我々のモデルは、純粋な時系列モデリングとCNNベースの学習曲線の両方に対して、最先端の学習曲線法および補間アプローチより優れている。
論文 参考訳(メタデータ) (2024-12-20T04:28:02Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - NNsight and NDIF: Democratizing Access to Open-Weight Foundation Model Internals [58.83169560132308]
NNsightとNDIFは、非常に大きなニューラルネットワークの科学的研究を可能にするために、タンデムで機能する技術である。
NNsightは、遅延リモート実行を導入するためにPyTorchを拡張したオープンソースのシステムである。
NDIFは、NNsightリクエストを実行するスケーラブルな推論サービスで、GPUリソースと事前トレーニングされたモデルを共有することができる。
論文 参考訳(メタデータ) (2024-07-18T17:59:01Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - RLFlow: Optimising Neural Network Subgraph Transformation with World
Models [0.0]
本稿では,ニューラルネットワークのアーキテクチャを最適化するためのモデルベースエージェントを提案する。
提案手法は, 共通の畳み込みネットワーク上での最先端技術の性能に適合し, トランスフォーマースタイルのアーキテクチャでは最大5%性能が向上することを示す。
論文 参考訳(メタデータ) (2022-05-03T11:52:54Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - NeuroXplorer 1.0: An Extensible Framework for Architectural Exploration
with Spiking Neural Networks [3.9121275263540087]
本稿では、ニューロモルフィックアーキテクチャをモデル化するための一般化テンプレートに基づくフレームワークであるNeuroXplorerを提案する。
NeuroXplorerは、低レベルのサイクル精度アーキテクチャシミュレーションと、データフローの抽象化による高レベルの解析の両方を実行することができる。
我々は,多くの最先端機械学習モデルを用いたケーススタディを通じて,NeuroXplorerのアーキテクチャ探索能力を実証する。
論文 参考訳(メタデータ) (2021-05-04T23:31:11Z) - Learning to Continuously Optimize Wireless Resource in a Dynamic
Environment: A Bilevel Optimization Perspective [52.497514255040514]
この研究は、データ駆動メソッドが動的環境でリソース割り当て戦略を継続的に学び、最適化することを可能にする新しいアプローチを開発しています。
学習モデルが新たなエピソードに段階的に適応できるように、連続学習の概念を無線システム設計に組み込むことを提案する。
我々の設計は、異なるデータサンプルにまたがる公平性を保証する、新しい二段階最適化定式化に基づいている。
論文 参考訳(メタデータ) (2021-05-03T07:23:39Z) - Learning Discrete Energy-based Models via Auxiliary-variable Local
Exploration [130.89746032163106]
離散構造データに対する条件付きおよび非条件付きEMMを学習するための新しいアルゴリズムであるALOEを提案する。
エネルギー関数とサンプリング器は、新しい変分型電力繰り返しにより効率よく訓練できることを示す。
本稿では、ソフトウェアテストのためのエネルギーモデルガイド付ファジィザについて、libfuzzerのようなよく設計されたファジィエンジンに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2020-11-10T19:31:29Z) - DyNODE: Neural Ordinary Differential Equations for Dynamics Modeling in
Continuous Control [0.0]
本稿では,ニューラル常微分方程式の枠組みに制御を組み込むことにより,システムの基盤となる力学を捉える新しい手法を提案する。
以上の結果から,アクター批判強化学習アルゴリズムと組み合わせた単純なDyNODEアーキテクチャが,標準ニューラルネットワークより優れていることが示唆された。
論文 参考訳(メタデータ) (2020-09-09T12:56:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。