論文の概要: A sparse code increases the speed and efficiency of neuro-dynamic
programming for optimal control tasks with correlated inputs
- arxiv url: http://arxiv.org/abs/2006.11968v3
- Date: Wed, 18 Nov 2020 01:10:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 04:35:18.067312
- Title: A sparse code increases the speed and efficiency of neuro-dynamic
programming for optimal control tasks with correlated inputs
- Title(参考訳): 相関入力を持つ最適制御タスクのためのスパース符号によるニューロダイナミックプログラミングの高速化と効率向上
- Authors: Peter N. Loxley
- Abstract要約: スパースコードは、ニューロダイナミックプログラミングで解決された最適な制御タスクにおいて、自然なイメージを表現するために使用される。
オーバーコンプリートスパース符号の2.25倍は、同じ入力を使用する完全スパース符号と比較して少なくとも2倍のメモリ容量を示す。
これはシーケンシャルラーニングにおいて、ネットワークに潜在的に多くの最適な制御タスクを格納するために使用される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sparse codes in neuroscience have been suggested to offer certain
computational advantages over other neural representations of sensory data. To
explore this viewpoint, a sparse code is used to represent natural images in an
optimal control task solved with neuro-dynamic programming, and its
computational properties are investigated. The central finding is that when
feature inputs to a linear network are correlated, an over-complete sparse code
increases the memory capacity of the network in an efficient manner beyond that
possible for any complete code with the same-sized input, and also increases
the speed of learning the network weights. A complete sparse code is found to
maximise the memory capacity of a linear network by decorrelating its feature
inputs to transform the design matrix of the least-squares problem to one of
full rank. It also conditions the Hessian matrix of the least-squares problem,
thereby increasing the rate of convergence to the optimal network weights.
Other types of decorrelating codes would also achieve this. However, an
over-complete sparse code is found to be approximately decorrelated, extracting
a larger number of approximately decorrelated features from the same-sized
input, allowing it to efficiently increase memory capacity beyond that possible
for any complete code: a 2.25 times over-complete sparse code is shown to at
least double memory capacity compared with a complete sparse code using the
same input. This is used in sequential learning to store a potentially large
number of optimal control tasks in the network, while catastrophic forgetting
is avoided using a partitioned representation, yielding a cost-to-go function
approximator that generalizes over the states in each partition. Sparse code
advantages over dense codes and local codes are also discussed.
- Abstract(参考訳): 神経科学におけるスパース符号は、感覚データの他の神経表現よりも特定の計算上の利点をもたらすことが提案されている。
この観点から,神経力学計画法で解く最適制御タスクにおいて,自然画像を表現するためにスパース符号を用い,その計算特性について検討した。
中心的な発見は、線形ネットワークへの特徴入力が相関すると、同じサイズの入力を持つ任意の完全コードに対して、オーバーコンプリートスパースコードは、ネットワークのメモリ容量を可能な限り効率的に増加させ、ネットワーク重みを学習する速度を高めることである。
完全なスパース符号は、最小二乗問題の設計行列を全ランクの1つに変換するために特徴入力を関連付けることで、線形ネットワークのメモリ容量を最大化する。
また、最小二乗問題のヘッセン行列を条件付け、最適のネットワーク重みへの収束率を増大させる。
他の種類の関連コードもこれを実現する。
しかし、オーバーコンプリートスパースコードは、ほぼデコリ関連であることが判明し、同じサイズの入力から、およそデコリ関連の機能の多くを抽出し、任意のコンプリートコードで可能以上のメモリ容量を効率的に増やすことができる。
これは、ネットワークに潜在的に多くの最適制御タスクを格納するために、逐次学習で使用されるが、破滅的な忘れは分割表現によって避けられ、各パーティションの状態を一般化するコスト対ゴー関数近似器が得られる。
密集したコードやローカルコードよりもスパースコードのアドバンテージも議論されている。
関連論文リスト
- Optimal Gradient Checkpointing for Sparse and Recurrent Architectures using Off-Chip Memory [0.8321953606016751]
本稿では,スパースRNNとスパイキングニューラルネットワークの一般クラスに適したメモリ効率の高い勾配チェックポイント戦略を提案する。
再計算のオーバーヘッドを最小限に抑えながら、ローカルメモリリソースの使用を最適化し、Double Checkpointingが最も効果的な方法であることが判明した。
論文 参考訳(メタデータ) (2024-12-16T14:23:31Z) - Erasure Coded Neural Network Inference via Fisher Averaging [28.243239815823205]
消去符号化コンピューティングは、サーバのストラグリングや異種トラフィックの変動といった要因によって引き起こされるテールレイテンシを低減するために、クラウドシステムで成功している。
我々は、2つ以上のニューラルネットワークモデルに対して、与えられたニューラルネットワークの出力の線形結合である符号付きモデルを構築する方法を設計する。
実世界のビジョンデータセットに基づいてトレーニングされたニューラルネットワーク上で消去符号化を行う実験を行い、COINを用いた復号出力の精度は他のベースラインよりも著しく高いことを示す。
論文 参考訳(メタデータ) (2024-09-02T18:46:26Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Instant Neural Graphics Primitives with a Multiresolution Hash Encoding [67.33850633281803]
品質を犠牲にすることなく、より小さなネットワークを使用できる汎用的な新しい入力符号化を提案する。
小さなニューラルネットワークは、勾配降下によって値が最適化された訓練可能な特徴ベクトルの多分解能ハッシュテーブルによって拡張される。
数桁の高速化を実現し、高品質なニューラルネットワークプリミティブを数秒でトレーニングすることができる。
論文 参考訳(メタデータ) (2022-01-16T07:22:47Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Efficient bit encoding of neural networks for Fock states [77.34726150561087]
ニューラルネットワークの複雑さは、最大ボソン数ではなくビット符号化されたニューロンの数でしかスケールしない。
高占有状態においては、情報圧縮効率は最大に最適化された密度行列の実装を超えることが示されている。
論文 参考訳(メタデータ) (2021-03-15T11:24:40Z) - Neural network approaches to point lattice decoding [6.025026882312586]
voronoi-reduced基底は二元集合への解の空間を制限するために導入された。
CPWL復号関数におけるアフィンの個数を数え、復号問題の複雑さを特徴づける。
論文 参考訳(メタデータ) (2020-12-13T10:53:34Z) - Pruning Neural Belief Propagation Decoders [77.237958592189]
本稿では,機械学習を用いたBPデコードに対して,過剰完全パリティチェック行列を調整する手法を提案する。
我々は,デコーダの複雑さを低減しつつ,0.27dB,1.5dBのML性能を実現する。
論文 参考訳(メタデータ) (2020-01-21T12:05:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。