論文の概要: Simulating Structural Plasticity of the Brain more Scalable than
Expected
- arxiv url: http://arxiv.org/abs/2210.05267v1
- Date: Tue, 11 Oct 2022 09:02:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 15:52:56.461809
- Title: Simulating Structural Plasticity of the Brain more Scalable than
Expected
- Title(参考訳): 予想以上にスケーラブルな脳の構造可塑性のシミュレーション
- Authors: Fabian Czappa, Alexander Gei{\ss} and Felix Wolf
- Abstract要約: Rinkeらは、Barnes-Hutアルゴリズムの変種を用いて、現在のハードウェア上で最大10億のニューロンに対して構造的可塑性をシミュレートするスケーラブルなアルゴリズムを導入した。
アルゴリズムを慎重に検討すると、理論ランタイムは$O(n log2 n)$と分類できる。
- 参考スコア(独自算出の注目度): 69.39201743340747
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Structural plasticity of the brain describes the creation of new and the
deletion of old synapses over time. Rinke et al. (JPDC 2018) introduced a
scalable algorithm that simulates structural plasticity for up to one billion
neurons on current hardware using a variant of the Barnes--Hut algorithm. They
demonstrate good scalability and prove a runtime complexity of $O(n \log^2 n)$.
In this comment paper, we show that with careful consideration of the
algorithm, the theoretical runtime can even be classified as $O(n \log n)$.
- Abstract(参考訳): 脳の構造的可塑性は、時間とともに新しいシナプスの生成と古いシナプスの削除を記述する。
Rinke et al. (JPDC 2018)は、Barnes-Hutアルゴリズムの変種を用いて、現在のハードウェア上で最大10億のニューロンの構造的可塑性をシミュレートするスケーラブルなアルゴリズムを導入した。
優れたスケーラビリティを示し、実行時の複雑性を$o(n \log^2 n)$で証明する。
本稿では,このアルゴリズムを慎重に検討することにより,理論ランタイムを$O(n \log n)$とすることができることを示す。
関連論文リスト
- On Computational Limits and Provably Efficient Criteria of Visual Autoregressive Models: A Fine-Grained Complexity Analysis [22.641550077885686]
我々は,Visual Autoregressive(mathsf/$)モデルの計算限界と効率基準を分析する。
より詳細な複雑性理論からStrong Exponential Time hypothesis(mathsfSETH$)を仮定すると、$mathsf/$モデルに対する準量子時間アルゴリズムは不可能である。
私たちの技術は、$mathsf/$フレームワークでスケーラブルで効率的な画像生成を推し進めることに重点を置いています。
論文 参考訳(メタデータ) (2025-01-08T09:34:15Z) - On the Complexity of Neural Computation in Superposition [3.9803704378699103]
ニューラルネットワークの理解の最近の進歩は、重畳が大規模ネットワークの計算効率の根底にある重要なメカニズムであることを示唆している。
ペアワイズのような論理演算は、$O(sqrtm' log m')$ ニューロンと$O(m' log2 m')$パラメータで計算できる。
本研究は,ニューラルネットワークの解釈可能性研究における複雑性理論手法の活用の道を開くものである。
論文 参考訳(メタデータ) (2024-09-05T18:58:59Z) - An Improved Finite-time Analysis of Temporal Difference Learning with Deep Neural Networks [11.925232472331494]
一般の$L$層ニューラルネットワークを用いて, ニューラルTD法の非漸近解析を改良した。
新しい証明技術が開発され、新しい$tildemathcalO(epsilon-1)$サンプルの複雑さが引き出された。
論文 参考訳(メタデータ) (2024-05-07T05:29:55Z) - Scalable network reconstruction in subquadratic time [0.0]
本稿では,この2次ベースラインを大幅に上回る広範囲の再構成問題に適用可能な一般アルゴリズムを提案する。
我々のアルゴリズムは、高い確率で最適なエッジ候補を生成する第2の隣人探索に依存している。
本アルゴリズムは2次ベースラインよりも桁違いに高速な性能を実現する。
論文 参考訳(メタデータ) (2024-01-02T19:00:13Z) - End-to-end complexity for simulating the Schwinger model on quantum computers [0.6449786007855248]
シュウィンガーモデルハミルトニアンのブロック符号化の効率的な実装を提案する。
エンド・ツー・エンドのアプリケーションとして、真空永続振幅を計算する。
本研究は,FTQC時代の量子コンピュータの性能予測に関する知見を提供する。
論文 参考訳(メタデータ) (2023-11-29T06:36:11Z) - Efficiently Learning One-Hidden-Layer ReLU Networks via Schur
Polynomials [50.90125395570797]
正方形損失に関して、標準的なガウス分布の下での$k$ReLU活性化の線形結合をPAC学習する問題をmathbbRd$で検討する。
本研究の主な成果は,この学習課題に対して,サンプルおよび計算複雑性が$(dk/epsilon)O(k)$で,epsilon>0$が目標精度である。
論文 参考訳(メタデータ) (2023-07-24T14:37:22Z) - Transformers Learn Shortcuts to Automata [52.015990420075944]
低深度変換器は任意の有限状態オートマトンを計算できる。
我々は,$O(log T)$レイヤを持つ変換器が,長さ$T$の入力シーケンス上で,オートマトンを正確に再現可能であることを示す。
さらに、これらの解の脆性について検討し、潜在的な緩和を提案する。
論文 参考訳(メタデータ) (2022-10-19T17:45:48Z) - Mixability made efficient: Fast online multiclass logistic regression [68.8204255655161]
我々は、混合性は最適な後悔を伴うアルゴリズムを得るための強力なツールであることを示した。
結果として得られる手法は、しばしば計算の複雑さに悩まされ、実用性が低下した。
論文 参考訳(メタデータ) (2021-10-08T08:22:05Z) - Minimax Optimization with Smooth Algorithmic Adversaries [59.47122537182611]
対戦相手が展開するスムーズなアルゴリズムに対して,Min-playerの新しいアルゴリズムを提案する。
本アルゴリズムは,制限周期のない単調進行を保証し,適切な勾配上昇数を求める。
論文 参考訳(メタデータ) (2021-06-02T22:03:36Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。