論文の概要: Machine Learning Link Inference of Noisy Delay-coupled Networks with
Opto-Electronic Experimental Tests
- arxiv url: http://arxiv.org/abs/2010.15289v3
- Date: Fri, 14 May 2021 14:26:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 00:05:52.210711
- Title: Machine Learning Link Inference of Noisy Delay-coupled Networks with
Opto-Electronic Experimental Tests
- Title(参考訳): 光電子実験による雑音遅延結合ネットワークの機械学習リンク推定
- Authors: Amitava Banerjee, Joseph D. Hart, Rajarshi Roy, Edward Ott
- Abstract要約: 我々は,時間遅延のあるネットワークリンクを推論する一般的な問題を解決するために,機械学習手法を考案した。
まず、未知のネットワークのダイナミクスを模倣するために、貯水池コンピューティングとして知られる機械学習システムを訓練する。
本研究では, 貯留層出力層のトレーニングパラメータを用いて未知のネットワーク構造の推定を導出する手法を定式化し, 検証する。
- 参考スコア(独自算出の注目度): 1.0766846340954257
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We devise a machine learning technique to solve the general problem of
inferring network links that have time-delays. The goal is to do this purely
from time-series data of the network nodal states. This task has applications
in fields ranging from applied physics and engineering to neuroscience and
biology. To achieve this, we first train a type of machine learning system
known as reservoir computing to mimic the dynamics of the unknown network. We
formulate and test a technique that uses the trained parameters of the
reservoir system output layer to deduce an estimate of the unknown network
structure. Our technique, by its nature, is non-invasive, but is motivated by
the widely-used invasive network inference method whereby the responses to
active perturbations applied to the network are observed and employed to infer
network links (e.g., knocking down genes to infer gene regulatory networks). We
test this technique on experimental and simulated data from delay-coupled
opto-electronic oscillator networks. We show that the technique often yields
very good results particularly if the system does not exhibit synchrony. We
also find that the presence of dynamical noise can strikingly enhance the
accuracy and ability of our technique, especially in networks that exhibit
synchrony.
- Abstract(参考訳): 時間遅延のあるネットワークリンクを推測する一般的な問題を解決するために,機械学習手法を考案する。
目標は、これをネットワークのnodal状態の時系列データから純粋に行うことです。
この仕事は応用物理学や工学から神経科学や生物学まで幅広い分野に応用されている。
そこで我々はまず,未知のネットワークのダイナミクスを模倣するために,貯水池計算と呼ばれる機械学習システムを訓練する。
本研究では,リザーバシステム出力層のトレーニングパラメータを用いて未知のネットワーク構造の推定を導出する手法を定式化し,検証する。
本手法は、本質的には非侵襲的であるが、ネットワークに作用する能動摂動に対する応答を観測し、ネットワークリンク(例えば、遺伝子をノックダウンして遺伝子制御ネットワークを推測する)を推論する、広く使われている侵入型ネットワーク推論法によって動機付けられている。
遅延結合光電子発振器ネットワークを用いた実験およびシミュレーションデータを用いて本手法を検証した。
この手法は、特にシステムが同期を示さない場合、非常に良い結果をもたらすことがしばしば示される。
また、動的ノイズの存在は、特に同期性を示すネットワークにおいて、我々の手法の精度と能力を大幅に向上させることができる。
関連論文リスト
- Dissipation-driven quantum generative adversarial networks [11.833077116494929]
本稿では,従来のデータ生成に適した,分散駆動型量子生成逆数ネットワーク(DQGAN)アーキテクチャを提案する。
古典データは、強い調整された散逸過程を通じて入力層の入力量子ビットに符号化される。
出力量子ビットの定常状態の可観測値を測定することにより、生成されたデータと分類結果の両方を抽出する。
論文 参考訳(メタデータ) (2024-08-28T07:41:58Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Network Anomaly Detection Using Federated Learning [0.483420384410068]
我々は、効率的なネットワーク異常検出を可能にする堅牢でスケーラブルなフレームワークを導入する。
複数の参加者が共同でグローバルモデルをトレーニングするフェデレーション学習を活用します。
提案手法はUNSW-NB15データセットのベースライン機械学習手法よりも優れている。
論文 参考訳(メタデータ) (2023-03-13T20:16:30Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Convolutional generative adversarial imputation networks for
spatio-temporal missing data in storm surge simulations [86.5302150777089]
GAN(Generative Adversarial Imputation Nets)とGANベースの技術は、教師なし機械学習手法として注目されている。
提案手法を Con Conval Generative Adversarial Imputation Nets (Conv-GAIN) と呼ぶ。
論文 参考訳(メタデータ) (2021-11-03T03:50:48Z) - Parallel Machine Learning for Forecasting the Dynamics of Complex
Networks [0.0]
本稿では,大規模複雑ネットワークの力学を予測するための機械学習手法を提案する。
私たちは、関心のネットワークのトポロジを模倣する並列アーキテクチャを使用します。
論文 参考訳(メタデータ) (2021-08-27T06:06:41Z) - Reservoir Stack Machines [77.12475691708838]
メモリ拡張ニューラルネットワークは、情報ストレージを必要とするタスクをサポートするために、明示的なメモリを備えたリカレントニューラルネットワークを備える。
本研究では,全ての決定論的文脈自由言語を確実に認識できるモデルである貯水池スタックマシンを導入する。
以上の結果から, 貯水池スタックマシンは, 訓練データよりも長い試験シーケンスでもゼロ誤差を達成できることがわかった。
論文 参考訳(メタデータ) (2021-05-04T16:50:40Z) - Learning Contact Dynamics using Physically Structured Neural Networks [81.73947303886753]
ディープニューラルネットワークと微分方程式の接続を用いて、オブジェクト間の接触ダイナミクスを表現するディープネットワークアーキテクチャのファミリを設計する。
これらのネットワークは,ノイズ観測から不連続な接触事象をデータ効率良く学習できることを示す。
以上の結果から,タッチフィードバックの理想化形態は,この学習課題を扱いやすくするための重要な要素であることが示唆された。
論文 参考訳(メタデータ) (2021-02-22T17:33:51Z) - Physical deep learning based on optimal control of dynamical systems [0.0]
本研究では,連続時間力学系の最適制御に基づくパターン認識を行う。
鍵となる例として、光電子遅延システムにダイナミックスに基づく認識アプローチを適用する。
これは、多くの重みパラメータをトレーニングする必要がある従来の多層ニューラルネットワークとは対照的である。
論文 参考訳(メタデータ) (2020-12-16T06:38:01Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。