論文の概要: Symmetry-Aware Reservoir Computing
- arxiv url: http://arxiv.org/abs/2102.00310v1
- Date: Sat, 30 Jan 2021 20:59:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-04 10:00:19.802145
- Title: Symmetry-Aware Reservoir Computing
- Title(参考訳): 対称性を考慮した貯留層計算
- Authors: Wendson A. S. Barbosa, Aaron Griffith, Graham E. Rowlands, Luke C. G.
Govia, Guilhem J. Ribeill, Minh-Hai Nguyen, Thomas A. Ohki, Daniel J.
Gauthier
- Abstract要約: 本研究では,貯水池コンピュータの対称性特性と処理中のデータとのマッチングにより,処理能力が劇的に向上することを示す。
提案手法を,対称性マッチングの利点を浮き彫りにする,挑戦的なベンチマーク問題であるパリティタスクに適用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We demonstrate that matching the symmetry properties of a reservoir computer
(RC) to the data being processed can dramatically increase its processing
power. We apply our method to the parity task, a challenging benchmark problem,
which highlights the benefits of symmetry matching. Our method outperforms all
other approaches on this task, even artificial neural networks (ANN) hand
crafted for this problem. The symmetry-aware RC can obtain zero error using an
exponentially reduced number of artificial neurons and training data, greatly
speeding up the time-to-result. We anticipate that generalizations of our
procedure will have widespread applicability in information processing with
ANNs.
- Abstract(参考訳): 貯留層コンピュータ(RC)の対称性が処理されるデータと一致することで、処理能力が飛躍的に向上することを示した。
提案手法を,対称性マッチングの利点を浮き彫りにする,挑戦的なベンチマーク問題であるパリティタスクに適用する。
提案手法は,ANN(Artificial Neural Network)など,この課題に対する他のアプローチよりも優れています。
シンメトリー認識RCは、人工ニューロンの指数的に減少した数とトレーニングデータを使用してゼロエラーを得ることができます。
この手続きの一般化はANNによる情報処理に広く適用されることを期待しています。
関連論文リスト
- Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Loop Unrolled Shallow Equilibrium Regularizer (LUSER) -- A
Memory-Efficient Inverse Problem Solver [26.87738024952936]
逆問題では、潜在的に破損し、しばしば不適切な測定結果から、いくつかの基本的な関心のシグナルを再構築することを目的としている。
浅い平衡正規化器(L)を用いたLUアルゴリズムを提案する。
これらの暗黙のモデルは、より深い畳み込みネットワークと同じくらい表現力があるが、トレーニング中にはるかにメモリ効率が良い。
論文 参考訳(メタデータ) (2022-10-10T19:50:37Z) - FaDIn: Fast Discretized Inference for Hawkes Processes with General
Parametric Kernels [82.53569355337586]
この研究は、有限なサポートを持つ一般的なパラメトリックカーネルを用いて、時間点プロセスの推論に効率的なソリューションを提供することを目的としている。
開発した解法は, 離散化されたイベントを利用した高速なL2勾配解法からなる。
その結果, 提案手法は, 最先端技術と比較してパターン遅延を推定できる可能性が示唆された。
論文 参考訳(メタデータ) (2022-10-10T12:35:02Z) - LieGG: Studying Learned Lie Group Generators [1.5293427903448025]
ニューラルネットワークに組み込まれた対称性は、データを保存して学習することで、幅広いタスクに対して非常に有益であるように思える。
本稿では,ニューラルネットワークが学習した対称性を抽出し,ネットワークの不変度を評価する手法を提案する。
論文 参考訳(メタデータ) (2022-10-09T20:42:37Z) - Automatic Data Augmentation via Invariance-Constrained Learning [122.38374511885488]
下位のデータ構造は、しばしば学習タスクのソリューションを改善するために利用される。
データ拡張は、入力データに複数の変換を適用することで、トレーニング中にこれらの対称性を誘導する。
この作業は、学習タスクを解決しながらデータ拡張を自動的に適応することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2022-09-29T18:11:01Z) - Semi-Parametric Deep Neural Networks in Linear Time and Memory [18.572562224291477]
我々はSPINと呼ばれる汎用半パラメトリックニューラルネットワークを導入する。
私たちのアーキテクチャはポイントメソッドの誘導にインスパイアされ、データポイント間のクロスアテンションの新たな応用に依存しています。
提案手法は,既存の半パラメトリックモデルの計算要求を,データセットの範囲で最大1桁削減する。
論文 参考訳(メタデータ) (2022-05-24T01:42:46Z) - Efficient Continuous Manifold Learning for Time Series Modeling [1.6287500717172143]
対称正定値行列(SPD)はコンピュータビジョン、信号処理、医療画像解析において研究されている。
強い制約のため、最適化問題や非効率な計算コストでは依然として困難である。
論文 参考訳(メタデータ) (2021-12-03T01:38:38Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Facilitate the Parametric Dimension Reduction by Gradient Clipping [1.9671123873378715]
我々は、ニューラルネットワークのトレーニングにより、非パラメトリックからパラメトリックへ、よく知られた次元削減手法であるt分散隣接埋め込み(t-SNE)を拡張した。
本手法は, 一般化を楽しみながら, 非パラメトリックt-SNEと互換性のある埋め込み品質を実現する。
論文 参考訳(メタデータ) (2020-09-30T01:21:22Z) - Understanding the Effects of Data Parallelism and Sparsity on Neural
Network Training [126.49572353148262]
ニューラルネットワークトレーニングにおける2つの要因として,データ並列性と疎性について検討する。
有望なメリットにもかかわらず、ニューラルネットワークトレーニングに対する彼らの影響を理解することは、依然として明白である。
論文 参考訳(メタデータ) (2020-03-25T10:49:22Z) - Toward fast and accurate human pose estimation via soft-gated skip
connections [97.06882200076096]
本稿では,高精度かつ高効率な人間のポーズ推定について述べる。
我々は、最先端技術よりも精度と効率を両立させる文脈において、この設計選択を再分析する。
本モデルでは,MPII と LSP のデータセットから最先端の結果が得られる。
論文 参考訳(メタデータ) (2020-02-25T18:51:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。