論文の概要: Deep Neural Networks to Recover Unknown Physical Parameters from
Oscillating Time Series
- arxiv url: http://arxiv.org/abs/2101.03850v1
- Date: Mon, 11 Jan 2021 12:39:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 14:27:04.936751
- Title: Deep Neural Networks to Recover Unknown Physical Parameters from
Oscillating Time Series
- Title(参考訳): 振動時系列から未知の物理パラメータを復元するディープニューラルネットワーク
- Authors: Antoine Garcon, Julian Vexler, Dmitry Budker, Stefan Kramer
- Abstract要約: 深層ニューラルネットワークを用いて振動時系列の成分を解き放つ。
先行知識が不完全である場合,我々のアーキテクチャは物理学における時系列処理に有用であることを示す。
- 参考スコア(独自算出の注目度): 3.7277730514654555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) are widely used in pattern-recognition tasks for
which a human comprehensible, quantitative description of the data-generating
process, e.g., in the form of equations, cannot be achieved. While doing so,
DNNs often produce an abstract (entangled and non-interpretable) representation
of the data-generating process. This is one of the reasons why DNNs are not
extensively used in physics-signal processing: physicists generally require
their analyses to yield quantitative information about the studied systems. In
this article we use DNNs to disentangle components of oscillating time series,
and recover meaningful information. We show that, because DNNs can find useful
abstract feature representations, they can be used when prior knowledge about
the signal-generating process exists, but is not complete, as it is
particularly the case in "new-physics" searches. To this aim, we train our DNN
on synthetic oscillating time series to perform two tasks: a regression of the
signal latent parameters and signal denoising by an Autoencoder-like
architecture. We show that the regression and denoising performance is similar
to those of least-square curve fittings (LS-fit) with true latent parameters'
initial guesses, in spite of the DNN needing no initial guesses at all. We then
explore applications in which we believe our architecture could prove useful
for time-series processing in physics, when prior knowledge is incomplete. As
an example, we employ DNNs as a tool to inform LS-fits when initial guesses are
unknown. We show that the regression can be performed on some latent
parameters, while ignoring the existence of others. Because the Autoencoder
needs no prior information about the physical model, the remaining unknown
latent parameters can still be captured, thus making use of partial prior
knowledge, while leaving space for data exploration and discoveries.
- Abstract(参考訳): ディープニューラルネットワーク(Deep Neural Network, DNN)は、人間の理解しやすく定量的なデータ生成過程の記述、例えば方程式の形では達成できないパターン認識タスクにおいて広く使われている。
その間、DNNはしばしばデータ生成プロセスの抽象的(絡み合った、非解釈可能な)表現を生成する。
これは、DNNが物理信号処理で広く使われていない理由の1つである:物理学者は一般に、研究されたシステムに関する定量的情報を得るために、その分析を必要とする。
本稿では、DNNを用いて、振動する時系列の成分を乱し、意味のある情報を復元する。
DNNは有用な抽象的特徴表現を見つけることができるため、信号生成過程に関する事前の知識が存在する場合に使用できるが、「新しい物理」探索では特にそうであるように、完全ではない。
この目的のために、我々はdnnを合成振動時系列に訓練し、信号潜在パラメータの回帰とオートエンコーダライクなアーキテクチャによる信号ノイズの2つのタスクを実行する。
回帰および復調性能は、DNNが初期推定を全く必要としていないにもかかわらず、真の潜在パラメータの初期推定値を持つ最小二乗曲線フィッティング(LS-fit)のものと類似していることを示す。
次に、事前の知識が不完全である場合に、我々のアーキテクチャが物理学における時系列処理に役立つと信じているアプリケーションを探る。
例えば、最初の推測が不明な場合には、DNNを使ってLS適合を知らせる。
回帰は、他のパラメータの存在を無視しながら、潜在パラメータで実行可能であることを示す。
オートエンコーダは物理モデルに関する事前情報を必要としないため、未知の潜在パラメータをキャプチャして、データ探索と発見のためのスペースを残しながら、部分的な事前知識を利用することができる。
関連論文リスト
- Assessing Neural Network Representations During Training Using
Noise-Resilient Diffusion Spectral Entropy [55.014926694758195]
ニューラルネットワークにおけるエントロピーと相互情報は、学習プロセスに関する豊富な情報を提供する。
データ幾何を利用して基礎となる多様体にアクセスし、これらの情報理論測度を確実に計算する。
本研究は,高次元シミュレーションデータにおける固有次元と関係強度の耐雑音性の測定結果である。
論文 参考訳(メタデータ) (2023-12-04T01:32:42Z) - Feature Attribution Explanations for Spiking Neural Networks [3.5824464725360077]
第三世代のニューラルネットワークであるスパイキングニューラルネットワーク(SNN)は、ハードウェア上で効率的に実装できる。
ニューロモルフィックチップの実装は、機械学習ベースの自律制御やインテリジェントなバイオメディカルデバイスなど、幅広い応用を開放する。
SNNの局所的説明法であるtextitTemporal Spike Attribution (TSA) を提案する。
論文 参考訳(メタデータ) (2023-11-02T21:30:56Z) - Dynamic Analysis and an Eigen Initializer for Recurrent Neural Networks [0.0]
繰り返しニューラルネットワークにおける隠れ状態のダイナミクスについて検討する。
重み行列の固有分解に基づいて隠れ状態空間を解析するための新しい視点を提案する。
本稿では,固有解析に基づく長期依存の説明を行う。
論文 参考訳(メタデータ) (2023-07-28T17:14:58Z) - Learning Low Dimensional State Spaces with Overparameterized Recurrent
Neural Nets [57.06026574261203]
我々は、長期記憶をモデル化できる低次元状態空間を学習するための理論的証拠を提供する。
実験は、線形RNNと非線形RNNの両方で低次元状態空間を学習することで、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2022-10-25T14:45:15Z) - Recurrent Neural Networks for Learning Long-term Temporal Dependencies
with Reanalysis of Time Scale Representation [16.32068729107421]
時間的表現としての忘れ門の解釈は、状態に対する損失の勾配が時間とともに指数関数的に減少するときに有効であると主張する。
本稿では,従来のモデルよりも長い時間スケールを表現できる新しいRNNの構築手法を提案する。
論文 参考訳(メタデータ) (2021-11-05T06:22:58Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - SpikeMS: Deep Spiking Neural Network for Motion Segmentation [7.491944503744111]
textitSpikeMSは、モーションセグメンテーションの大規模な問題に対する最初のディープエンコーダデコーダSNNアーキテクチャである。
textitSpikeMSは,テキストインクリメンタルな予測や,より少ない量のテストデータからの予測を行うことができることを示す。
論文 参考訳(メタデータ) (2021-05-13T21:34:55Z) - Neural ODE Processes [64.10282200111983]
NDP(Neural ODE Process)は、Neural ODEの分布によって決定される新しいプロセスクラスである。
我々のモデルは,少数のデータポイントから低次元システムのダイナミクスを捉えることができることを示す。
論文 参考訳(メタデータ) (2021-03-23T09:32:06Z) - System Identification Through Lipschitz Regularized Deep Neural Networks [0.4297070083645048]
ニューラルネットワークを使って、データから支配方程式を学習します。
我々は、観測されたタイムスタンプデータから直接、ODEs $dotx(t) = f(t, x(t))$の右辺を再構築する。
論文 参考訳(メタデータ) (2020-09-07T17:52:51Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。