論文の概要: Generalized Approach to Matched Filtering using Neural Networks
- arxiv url: http://arxiv.org/abs/2104.03961v1
- Date: Thu, 8 Apr 2021 17:59:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 12:47:51.875394
- Title: Generalized Approach to Matched Filtering using Neural Networks
- Title(参考訳): ニューラルネットワークを用いたマッチングフィルタリングの一般化
- Authors: Jingkai Yan, Mariam Avagyan, Robert E. Colgan, Do\u{g}a Veske, Imre
Bartos, John Wright, Zsuzsa M\'arka, Szabolcs M\'arka
- Abstract要約: 我々は,新たな深層学習と従来の技術との関係について重要な観察を行う。
一致するフィルタリングは、特定のニューラルネットワークと正式に等価です。
提案するニューラルネットワークアーキテクチャがマッチングフィルタリングよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 4.535489275919893
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gravitational wave science is a pioneering field with rapidly evolving data
analysis methodology currently assimilating and inventing deep learning
techniques. The bulk of the sophisticated flagship searches of the field rely
on the time-tested matched filtering principle within their core. In this
paper, we make a key observation on the relationship between the emerging deep
learning and the traditional techniques: matched filtering is formally
equivalent to a particular neural network. This means that a neural network can
be constructed analytically to exactly implement matched filtering, and can be
further trained on data or boosted with additional complexity for improved
performance. This fundamental equivalence allows us to define a "complexity
standard candle" allowing us to characterize the relative complexity of the
different approaches to gravitational wave signals in a common framework.
Additionally it also provides a glimpse of an intriguing symmetry that could
provide clues on how neural networks approach the problem of finding signals in
overwhelming noise. Moreover, we show that the proposed neural network
architecture can outperform matched filtering, both with or without knowledge
of a prior on the parameter distribution. When a prior is given, the proposed
neural network can approach the statistically optimal performance. We also
propose and investigate two different neural network architectures MNet-Shallow
and MNet-Deep, both of which implement matched filtering at initialization and
can be trained on data. MNet-Shallow has simpler structure, while MNet-Deep is
more flexible and can deal with a wider range of distributions. Our theoretical
findings are corroborated by experiments using real LIGO data and synthetic
injections. Finally, our results suggest new perspectives on the role of deep
learning in gravitational wave detection.
- Abstract(参考訳): 重力波科学は先駆的な分野であり、現在急速に進化しているデータ分析手法は深層学習技術を模倣し発明している。
フィールドの洗練された旗艦探索の大部分は、コア内のタイムテストされたマッチングフィルタリング原理に依存している。
本稿では,新たな深層学習と従来の手法との関係について重要な考察を行う。マッチングフィルタリングは,特定のニューラルネットワークと正式に等価である。
つまり、ニューラルネットワークは、マッチしたフィルタリングを正確に実装するために分析的に構築することができ、さらにデータでトレーニングしたり、パフォーマンスを改善するためにさらなる複雑さで強化することができる。
この基本的な等価性は、重力波信号に対する異なるアプローチの相対的複雑さを共通の枠組みで特徴付ける「複雑度標準ろうそく」を定義することを可能にする。
さらに、ニューラルネットワークが圧倒的なノイズの中で信号を見つける問題にどうアプローチするかの手がかりとなる興味深い対称性を垣間見ることができる。
さらに,提案したニューラルネットワークアーキテクチャは,パラメータ分布の事前知識の有無にかかわらず,マッチングフィルタリングよりも優れていることを示す。
事前が与えられると、提案したニューラルネットワークは統計的に最適な性能に近づくことができる。
また,mnet-shallowとmnet-deepという2つの異なるニューラルネットワークアーキテクチャを提案し,検討した。
MNet-Shallowはより単純な構造を持ち、MNet-Deepはより柔軟で幅広い分布を扱うことができる。
LIGOデータと合成インジェクションを用いた実験により理論的知見を裏付ける。
最後に,重力波検出における深層学習の役割に関する新たな視点を提案する。
関連論文リスト
- Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - Statistical Physics of Deep Neural Networks: Initialization toward
Optimal Channels [6.144858413112823]
ディープラーニングでは、ニューラルネットワークは入力データとその表現の間のノイズの多いチャネルとして機能する。
ニューラルネットワークが最適なチャネルに内在する可能性について,よく見過ごされる可能性について検討する。
論文 参考訳(メタデータ) (2022-12-04T05:13:01Z) - Simple initialization and parametrization of sinusoidal networks via
their kernel bandwidth [92.25666446274188]
従来の活性化機能を持つネットワークの代替として、活性化を伴う正弦波ニューラルネットワークが提案されている。
まず,このような正弦波ニューラルネットワークの簡易版を提案する。
次に、ニューラルタンジェントカーネルの観点からこれらのネットワークの挙動を分析し、そのカーネルが調整可能な帯域幅を持つ低域フィルタを近似することを実証する。
論文 参考訳(メタデータ) (2022-11-26T07:41:48Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - An Information-Theoretic Framework for Supervised Learning [22.280001450122175]
後悔とサンプルの複雑さという独自の概念を持つ新しい情報理論フレームワークを提案する。
本稿では、ReLUアクティベーションユニットを用いたディープニューラルネットワークによって生成されたデータから学習する際のサンプルの複雑さについて検討する。
我々は、ランダムな単層ニューラルネットワークの実験的な解析により、理論結果を裏付けることで結論付ける。
論文 参考訳(メタデータ) (2022-03-01T05:58:28Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Learning Structures for Deep Neural Networks [99.8331363309895]
我々は,情報理論に根ざし,計算神経科学に発達した効率的な符号化原理を採用することを提案する。
スパース符号化は出力信号のエントロピーを効果的に最大化できることを示す。
公開画像分類データセットを用いた実験により,提案アルゴリズムでスクラッチから学習した構造を用いて,最も優れた専門家設計構造に匹敵する分類精度が得られることを示した。
論文 参考訳(メタデータ) (2021-05-27T12:27:24Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。