論文の概要: Adaptive whitening with fast gain modulation and slow synaptic
plasticity
- arxiv url: http://arxiv.org/abs/2308.13633v1
- Date: Fri, 25 Aug 2023 18:58:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 20:06:51.875007
- Title: Adaptive whitening with fast gain modulation and slow synaptic
plasticity
- Title(参考訳): 高速利得変調と低シナプス可塑性による適応的白化
- Authors: Lyndon R. Duong, Eero P. Simoncelli, Dmitri B. Chklovskii, David
Lipshutz
- Abstract要約: 適応的白化の既存の力学モデルは、適応のための生物学的基質としてシナプス的可塑性またはゲイン変調を排他的に用いている。
我々はこれらのアプローチを,シナプス可塑性と変調の相補的な計算的役割で適応的に応答を白くする,規範的マルチタイム・メカニスティック・モデルで統一する。
本モデルは, 逆白化行列を, シナプス重みに対応する基底ベクトルと, ニューロンの利得に対応する対角行列に分解する新しい多時間白化対象から導かれる。
- 参考スコア(独自算出の注目度): 18.750054720400815
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neurons in early sensory areas rapidly adapt to changing sensory statistics,
both by normalizing the variance of their individual responses and by reducing
correlations between their responses. Together, these transformations may be
viewed as an adaptive form of statistical whitening. Existing mechanistic
models of adaptive whitening exclusively use either synaptic plasticity or gain
modulation as the biological substrate for adaptation; however, on their own,
each of these models has significant limitations. In this work, we unify these
approaches in a normative multi-timescale mechanistic model that adaptively
whitens its responses with complementary computational roles for synaptic
plasticity and gain modulation. Gains are modified on a fast timescale to adapt
to the current statistical context, whereas synapses are modified on a slow
timescale to learn structural properties of the input statistics that are
invariant across contexts. Our model is derived from a novel multi-timescale
whitening objective that factorizes the inverse whitening matrix into basis
vectors, which correspond to synaptic weights, and a diagonal matrix, which
corresponds to neuronal gains. We test our model on synthetic and natural
datasets and find that the synapses learn optimal configurations over long
timescales that enable the circuit to adaptively whiten neural responses on
short timescales exclusively using gain modulation.
- Abstract(参考訳): 初期の感覚領域のニューロンは、個々の反応の偏りを正規化し、反応間の相関を減少させることによって、感覚統計の変化に迅速に適応する。
同時に、これらの変換は統計的白化の適応形式と見なすことができる。
既存のアダプティブ・ホワイトニングの機械モデルでは、適応のための生体基質としてシナプス可塑性またはゲイン変調のみを用いるが、それぞれにかなりの制限がある。
本研究では,これらのアプローチを,シナプス可塑性と変調の相補的な計算的役割で適応的に応答を白くする,規範的マルチ時間力学モデルで統一する。
ゲインは現在の統計的文脈に適応するために速い時間スケールで修正されるが、シナプスは、コンテキスト間で不変な入力統計の構造的性質を学ぶために遅い時間スケールで修正される。
本モデルは、逆ホワイトニング行列をシナプス重みに対応する基底ベクトルと、ニューロンの利得に対応する対角行列に分解する、新しい多時間スケールホワイトニング目的から導出したものである。
我々は,合成および自然データセットを用いたモデルテストを行い,回路が利得変調のみを用いて短時間の時間スケールで適応的に神経応答をホワイト化できるように,シナプスが長い時間スケールで最適な構成を学習できることを見出した。
関連論文リスト
- Task adaption by biologically inspired stochastic comodulation [8.59194778459436]
我々は、利得変調による微調整畳み込みネットワークが、決定論的利得変調を改善することを示す。
この結果から,コモディレーション表現はマルチタスク学習における学習効率と性能を向上させることが示唆された。
論文 参考訳(メタデータ) (2023-11-25T15:21:03Z) - WaLiN-GUI: a graphical and auditory tool for neuron-based encoding [73.88751967207419]
ニューロモルフィックコンピューティングはスパイクベースのエネルギー効率の高い通信に依存している。
本研究では, スパイクトレインへのサンプルベースデータの符号化に適した構成を同定するツールを開発した。
WaLiN-GUIはオープンソースとドキュメントが提供されている。
論文 参考訳(メタデータ) (2023-10-25T20:34:08Z) - Boosting Fast and High-Quality Speech Synthesis with Linear Diffusion [85.54515118077825]
本稿では, 常微分方程式に基づく線形拡散モデル(LinDiff)を提案する。
計算複雑性を低減するため、LinDiffでは、入力信号を小さなパッチに分割するパッチベースの処理アプローチを採用している。
我々のモデルは、より高速な合成速度で自己回帰モデルに匹敵する品質の音声を合成することができる。
論文 参考訳(メタデータ) (2023-06-09T07:02:43Z) - Adaptive whitening in neural populations with gain-modulating
interneurons [11.059590443280726]
本稿では,個々のニューロンの利得を調節して応答を適応的に緩和するオンラインアルゴリズムを提案する。
アルゴリズムを、固定されたシナプス重みとゲイン変調インターニューロロンを持つリカレントニューラルネットワークにマッピングする。
我々は、利得の符号制約が、不条件入力に対するネットワークの堅牢性を改善することを数値的に示す。
論文 参考訳(メタデータ) (2023-01-27T19:13:41Z) - Neuronal architecture extracts statistical temporal patterns [1.9662978733004601]
情報表現や処理に高次時間的(コ-)ゆらぎをいかに利用できるかを示す。
単純な生物学的にインスパイアされたフィードフォワードニューロンモデルでは、時系列分類を行うために3階までの累積から情報を抽出することができる。
論文 参考訳(メタデータ) (2023-01-24T18:21:33Z) - An accurate and flexible analog emulation of AdEx neuron dynamics in
silicon [0.0]
混合信号加速型ニューロモルフィック系BrainScaleS-2のアナログニューロン回路を提示する。
適応指数積分・燃焼モデル方程式を、電流と導電率に基づくシナプスの両方と組み合わせて柔軟かつ正確にエミュレートすることができる。
論文 参考訳(メタデータ) (2022-09-19T18:08:23Z) - On the Generalization and Adaption Performance of Causal Models [99.64022680811281]
異なる因果発見は、データ生成プロセスを一連のモジュールに分解するために提案されている。
このようなモジュラニューラル因果モデルの一般化と適応性能について検討する。
我々の分析では、モジュラーニューラル因果モデルが、低データレギュレーションにおけるゼロおよび少数ショットの適応において、他のモデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-09T17:12:32Z) - Modeling Implicit Bias with Fuzzy Cognitive Maps [0.0]
本稿では、構造化データセットにおける暗黙バイアスを定量化するファジィ認知マップモデルを提案する。
本稿では,ニューロンの飽和を防止する正規化様伝達関数を備えた新しい推論機構を提案する。
論文 参考訳(メタデータ) (2021-12-23T17:04:12Z) - A Scaling Law for Synthetic-to-Real Transfer: A Measure of Pre-Training [52.93808218720784]
合成から現実への変換学習は,実タスクのための合成画像と接地真実アノテーションを用いた事前学習を行うフレームワークである。
合成画像はデータの不足を克服するが、事前訓練されたモデルで微調整性能がどのようにスケールするかは定かではない。
我々は、合成事前学習データの様々なタスク、モデル、複雑さにおける学習曲線を一貫して記述する、単純で一般的なスケーリング法則を観察する。
論文 参考訳(メタデータ) (2021-08-25T02:29:28Z) - Flexible Transmitter Network [84.90891046882213]
現在のニューラルネットワークはMPモデルに基づいて構築されており、通常はニューロンを他のニューロンから受信した信号の実際の重み付け集約上での活性化関数の実行として定式化する。
本稿では,フレキシブル・トランスミッタ(FT)モデルを提案する。
本稿では、最も一般的な完全接続型フィードフォワードアーキテクチャ上に構築された、フレキシブルトランスミッタネットワーク(FTNet)について述べる。
論文 参考訳(メタデータ) (2020-04-08T06:55:12Z) - VaPar Synth -- A Variational Parametric Model for Audio Synthesis [78.3405844354125]
本稿では,条件付き変分オートエンコーダ(CVAE)を用いた変分パラメトリックシンセサイザVaPar Synthを提案する。
提案するモデルの性能は,ピッチを柔軟に制御した楽器音の再構成と生成によって実証する。
論文 参考訳(メタデータ) (2020-03-30T16:05:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。