論文の概要: Liquid Resistance Liquid Capacitance Networks
- arxiv url: http://arxiv.org/abs/2403.08791v2
- Date: Sun, 7 Jul 2024 21:50:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-10 02:19:20.914131
- Title: Liquid Resistance Liquid Capacitance Networks
- Title(参考訳): 液体抵抗型液体キャパシタンスネットワーク
- Authors: Mónika Farsang, Sophie A. Neubauer, Radu Grosu,
- Abstract要約: 液体抵抗型液体キャパシタンスニューラルネットワーク(LRC)について紹介する。
LRCは、一般的なニューラルODEの非常に競争力のある代替品であり、正確性、効率、解釈可能性の観点から、RNNをゲートする。
実験により、LRCは一般的なニューラルODEと競合し、RNNの精度、効率、解釈可能性の点で高い競争力を持つことを示した。
- 参考スコア(独自算出の注目度): 6.884675991203353
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce liquid-resistance liquid-capacitance neural networks (LRCs), a neural-ODE model which considerably improves the smoothness, accuracy, and biological plausibility of electrical equivalent circuits (EECs), liquid time-constant networks (LTCs), and saturated liquid time-constant networks (STCs), respectively. We also introduce LRC units (LRCUs), as a very efficient and accurate gated RNN-model, which results from solving LRCs with an explicit Euler scheme using just one unfolding. We empirically show and formally prove that the liquid capacitance of LRCs considerably dampens the oscillations of LTCs and STCs, while at the same time dramatically increasing accuracy even for cheap solvers. We experimentally demonstrate that LRCs are a highly competitive alternative to popular neural ODEs and gated RNNs in terms of accuracy, efficiency, and interpretability, on classic time-series benchmarks and a complex autonomous-driving lane-keeping task.
- Abstract(参考訳): 本稿では, 電気等価回路 (EEC) , 液時定数ネットワーク (LTC) および飽和液時定数ネットワーク (STC) のスムーズ性, 精度, 生物学的妥当性を向上するニューラル-ODEモデルである液体抵抗型液体容量ニューラルネットワーク (LRC) を紹介する。
また、LRCユニット(LRCU)を非常に効率的かつ正確なゲート付きRNNモデルとして導入し、1つの展開だけを用いて明示的なオイラースキームでRCを解く結果を得た。
我々は,LCCの液容量がLCCとSTCの振動を著しく抑制すると同時に,安価なソルバにおいても劇的に精度を高めていることを実証し,正式に証明した。
我々は、従来の時系列ベンチマークと複雑な自律走行車線維持タスクにおいて、LRCが一般的なニューラルODEやゲートRNNの競争力の高い代替品であることを実験的に実証した。
関連論文リスト
- A Fast Algorithm to Simulate Nonlinear Resistive Networks [0.6526824510982799]
線形不等式制約を持つ二次計画問題として,非線形抵抗ネットワークのシミュレーションのための新しい手法を提案する。
シミュレーション手法は既存のSPICEシミュレーションよりも優れており、最大327倍のネットワークを160倍高速でトレーニングすることができる。
論文 参考訳(メタデータ) (2024-02-18T18:33:48Z) - ClST: A Convolutional Transformer Framework for Automatic Modulation
Recognition by Knowledge Distillation [23.068233043023834]
本稿では、畳み込み結合型信号変換器(ClST)という新しいニューラルネットワークと、信号知識蒸留(SKD)という新しい知識蒸留法を提案する。
SKDは、ニューラルネットワークのパラメータと複雑さを効果的に削減する知識蒸留法である。
我々は、SKDアルゴリズムであるKD-CNNとKD-MobileNetを使って、2つの軽量ニューラルネットワークをトレーニングし、ニューラルネットワークを小型デバイスで使用できるという要求を満たす。
論文 参考訳(メタデータ) (2023-12-29T03:01:46Z) - Universal Approximation of Linear Time-Invariant (LTI) Systems through RNNs: Power of Randomness in Reservoir Computing [19.995241682744567]
貯留層計算(Reservoir Computing, RC)は、リカレントウェイトがランダム化され、トレーニングされていない特別なRNNである。
RCは一般線形時間不変系(LTI)を普遍的に近似できることを示す。
論文 参考訳(メタデータ) (2023-08-04T17:04:13Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - LTC-SE: Expanding the Potential of Liquid Time-Constant Neural Networks
for Scalable AI and Embedded Systems [0.0]
我々は2021年にHasaniらによって提案されたLiquid Time-Constant Neural Networkアルゴリズムの改良版を提案する。
LTC-SEの強化は、柔軟性、互換性、コード組織の拡張に焦点を当てている。
これらの改良は、ロボット工学、因果解析、時系列予測など、さまざまな機械学習タスクにおける液体ニューラルネットワークの適用性を高める。
論文 参考訳(メタデータ) (2023-04-18T01:57:10Z) - Training Spiking Neural Networks with Local Tandem Learning [96.32026780517097]
スパイキングニューラルネットワーク(SNN)は、前者よりも生物学的に可塑性でエネルギー効率が高いことが示されている。
本稿では,局所タンデム学習(Local Tandem Learning, LTL)と呼ばれる一般化学習規則を提案する。
CIFAR-10データセット上の5つのトレーニングエポック内に高速なネットワーク収束を示すとともに,計算複雑性が低い。
論文 参考訳(メタデータ) (2022-10-10T10:05:00Z) - On Fast Simulation of Dynamical System with Neural Vector Enhanced
Numerical Solver [59.13397937903832]
ニューラルベクトル(NeurVec)と呼ばれる深層学習に基づく補正手法を提案する。
NeurVecは、統合エラーを補償し、シミュレーションでより大きなタイムステップサイズを可能にする。
様々な複雑な力学系ベンチマークの実験により、NeurVecは顕著な一般化能力を示すことが示された。
論文 参考訳(メタデータ) (2022-08-07T09:02:18Z) - Euler State Networks: Non-dissipative Reservoir Computing [3.55810827129032]
我々はEuSN(Euler State Network)と呼ばれる新しいReservoir Computing(RC)モデルを提案する。
我々の数学的解析は、結果のモデルが一元的有効スペクトル半径とゼロ局所リアプノフ指数に偏り、本質的に安定性の端近くで動作していることを示している。
時系列分類ベンチマークの結果は、EuSNがトレーニング可能なリカレントニューラルネットワークの精度と一致する(あるいは超える)ことを示唆している。
論文 参考訳(メタデータ) (2022-03-17T15:18:34Z) - Continual Learning in Recurrent Neural Networks [67.05499844830231]
リカレントニューラルネットワーク(RNN)を用いた逐次データ処理における連続学習手法の有効性を評価する。
RNNに弾性重み強化などの重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重
そこで本研究では,重み付け手法の性能が処理シーケンスの長さに直接的な影響を受けず,むしろ高動作メモリ要求の影響を受けていることを示す。
論文 参考訳(メタデータ) (2020-06-22T10:05:12Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z) - Toward fast and accurate human pose estimation via soft-gated skip
connections [97.06882200076096]
本稿では,高精度かつ高効率な人間のポーズ推定について述べる。
我々は、最先端技術よりも精度と効率を両立させる文脈において、この設計選択を再分析する。
本モデルでは,MPII と LSP のデータセットから最先端の結果が得られる。
論文 参考訳(メタデータ) (2020-02-25T18:51:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。