論文の概要: Exploring hyper-parameter spaces of neuroscience models on high
performance computers with Learning to Learn
- arxiv url: http://arxiv.org/abs/2202.13822v1
- Date: Mon, 28 Feb 2022 14:32:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-23 17:47:57.640903
- Title: Exploring hyper-parameter spaces of neuroscience models on high
performance computers with Learning to Learn
- Title(参考訳): 学習学習型高性能コンピュータにおける神経科学モデルのハイパーパラメータ空間の検討
- Authors: Alper Yegenoglu, Anand Subramoney, Thorsten Hater, Cristian
Jimenez-Romero, Wouter Klijn, Aaron Perez Martin, Michiel van der Vlag,
Michael Herty, Abigail Morrison, Sandra Diaz-Pier
- Abstract要約: 神経科学モデルは通常、多くの自由度を持ち、パラメータ空間内の特定の領域だけが興味のダイナミクスを生み出すことができる。
これにより、これらの領域を効果的に発見し、脳研究を進めるためのツールや戦略が開発される。
数値シミュレーションを用いた高次元パラメータ空間の探索は、近年、計算神経科学の多くの分野において頻繁に行われている手法である。
- 参考スコア(独自算出の注目度): 0.25457638766329743
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neuroscience models commonly have a high number of degrees of freedom and
only specific regions within the parameter space are able to produce dynamics
of interest. This makes the development of tools and strategies to efficiently
find these regions of high importance to advance brain research. Exploring the
high dimensional parameter space using numerical simulations has been a
frequently used technique in the last years in many areas of computational
neuroscience. High performance computing (HPC) can provide today a powerful
infrastructure to speed up explorations and increase our general understanding
of the model's behavior in reasonable times.
- Abstract(参考訳): 神経科学のモデルは一般に多くの自由度を持ち、パラメータ空間内の特定の領域だけが関心のダイナミクスを生み出すことができる。
これにより、脳研究を進める上で重要となるこれらの領域を効率的に見つけるためのツールや戦略が開発される。
数値シミュレーションを用いた高次元パラメータ空間の探索は、近年、計算神経科学の多くの分野において頻繁に用いられている手法である。
ハイパフォーマンスコンピューティング(HPC)は、現在、探索をスピードアップし、合理的な時間でモデルの振る舞いに対する一般的な理解を高めるための強力なインフラを提供することができる。
関連論文リスト
- Exploring Biological Neuronal Correlations with Quantum Generative Models [0.0]
生体神経活動の空間的・時間的相関を捉える合成データを生成するための量子生成モデルフレームワークを提案する。
本モデルは,従来の手法に比べてトレーニング可能なパラメータが少なく,信頼性の高い結果が得られることを示す。
論文 参考訳(メタデータ) (2024-09-13T18:00:06Z) - Astrocyte-Enabled Advancements in Spiking Neural Networks for Large
Language Modeling [7.863029550014263]
Astrocyte-Modulated Spiking Neural Network (AstroSNN) は、記憶保持や自然言語生成に関わるタスクにおいて、例外的な性能を示す。
AstroSNNは、実用的なアプリケーションで低レイテンシ、高スループット、メモリ使用量の削減を示す。
論文 参考訳(メタデータ) (2023-12-12T06:56:31Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - A Neuro-mimetic Realization of the Common Model of Cognition via Hebbian
Learning and Free Energy Minimization [55.11642177631929]
大規模なニューラル生成モデルは、意味的に豊富なテキストのパスを合成したり、複雑な画像を生成することができる。
我々はコモン・モデル・オブ・コグニティブ・ニューラル・ジェネレーティブ・システムについて論じる。
論文 参考訳(メタデータ) (2023-10-14T23:28:48Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - Machine learning enabled experimental design and parameter estimation
for ultrafast spin dynamics [54.172707311728885]
機械学習とベイズ最適実験設計(BOED)を組み合わせた方法論を提案する。
本手法は,大規模スピンダイナミクスシミュレーションのためのニューラルネットワークモデルを用いて,BOEDの正確な分布と実用計算を行う。
数値ベンチマークでは,XPFS実験の誘導,モデルパラメータの予測,実験時間内でのより情報的な測定を行う上で,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-06-03T06:19:20Z) - Initial Steps Towards Tackling High-dimensional Surrogate Modeling for
Neuroevolution Using Kriging Partial Least Squares [0.0]
サロゲート支援進化アルゴリズム(SAEA)は、進化計算システムにおける適合関数の近似を目的とし、効率的な計算モデルを使用することを目的としている。
SAEAsコミュニティからほとんど注目を集めていない、創発的でエキサイティングな領域は、神経進化にある。
近似代理モデルの効率的な計算を可能にするKriging partial Least Squares法をどう利用できるかを示す。
論文 参考訳(メタデータ) (2023-05-05T15:17:03Z) - Integrating Statistical and Machine Learning Approaches to Identify
Receptive Field Structure in Neural Populations [1.0312968200748118]
統計的モデリングと機械学習を組み合わせた統合フレームワークを開発し、大集団のニューロンの符号化特性を同定する。
この枠組みを実証するために, ラット海馬から記録されたニューロンの個体群からのデータにこれらの手法を適用した。
論文 参考訳(メタデータ) (2022-07-25T16:39:09Z) - Spatiotemporal Patterns in Neurobiology: An Overview for Future
Artificial Intelligence [0.0]
我々は,ネットワーク相互作用から生じる機能を明らかにする上で,計算モデルが重要なツールであると主張している。
ここでは、スパイキングニューロン、統合ニューロン、発火ニューロンを含むいくつかのモデルのクラスについてレビューする。
これらの研究は、人工知能アルゴリズムの今後の発展と、脳のプロセスの理解の検証に役立つことを願っている。
論文 参考訳(メタデータ) (2022-03-29T10:28:01Z) - Mapping and Validating a Point Neuron Model on Intel's Neuromorphic
Hardware Loihi [77.34726150561087]
インテルの第5世代ニューロモルフィックチップ「Loihi」の可能性について検討する。
Loihiは、脳内のニューロンをエミュレートするスパイキングニューラルネットワーク(SNN)という新しいアイデアに基づいている。
Loihiは従来のシミュレーションを非常に効率的に再現し、ネットワークが大きくなるにつれて、時間とエネルギーの両方のパフォーマンスにおいて顕著にスケールする。
論文 参考訳(メタデータ) (2021-09-22T16:52:51Z) - Hyperbolic Neural Networks++ [66.16106727715061]
ニューラルネットワークの基本成分を1つの双曲幾何モデル、すなわちポアンカーの球モデルで一般化する。
実験により, 従来の双曲成分と比較してパラメータ効率が優れ, ユークリッド成分よりも安定性と性能が優れていた。
論文 参考訳(メタデータ) (2020-06-15T08:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。