論文の概要: Widely Linear Matched Filter: A Lynchpin towards the Interpretability of
Complex-valued CNNs
- arxiv url: http://arxiv.org/abs/2401.16729v1
- Date: Tue, 30 Jan 2024 04:01:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 16:21:42.256280
- Title: Widely Linear Matched Filter: A Lynchpin towards the Interpretability of
Complex-valued CNNs
- Title(参考訳): 広線形マッチングフィルタ:複素数値CNNの解釈可能性へのリンチピン
- Authors: Qingchen Wang, Zhe Li, Zdenka Babic, Wei Deng, Ljubi\v{s}a
Stankovi\'c, Danilo P. Mandic
- Abstract要約: ここでは、広範線形マッチングフィルタ(WLMF)と呼ばれる、非円形複素数値データの一般的なクラスを紹介する。
厳密な場合、WLMF法は雑音の確率密度を仮定することなく導出される。
これは、複素数値CNNにおける畳み込み活性化プール鎖を、マッチングされたフィルタリングのレンズを通して再考するのに役立つ。
- 参考スコア(独自算出の注目度): 19.291619185044173
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A recent study on the interpretability of real-valued convolutional neural
networks (CNNs) \cite{Stankovic_Mandic_2023CNN} has revealed a direct and
physically meaningful link with the task of finding features in data through
matched filters. However, applying this paradigm to illuminate the
interpretability of complex-valued CNNs meets a formidable obstacle: the
extension of matched filtering to a general class of noncircular complex-valued
data, referred to here as the widely linear matched filter (WLMF), has been
only implicit in the literature. To this end, to establish the interpretability
of the operation of complex-valued CNNs, we introduce a general WLMF paradigm,
provide its solution and undertake analysis of its performance. For rigor, our
WLMF solution is derived without imposing any assumption on the probability
density of noise. The theoretical advantages of the WLMF over its standard
strictly linear counterpart (SLMF) are provided in terms of their output
signal-to-noise-ratios (SNRs), with WLMF consistently exhibiting enhanced SNR.
Moreover, the lower bound on the SNR gain of WLMF is derived, together with
condition to attain this bound. This serves to revisit the
convolution-activation-pooling chain in complex-valued CNNs through the lens of
matched filtering, which reveals the potential of WLMFs to provide physical
interpretability and enhance explainability of general complex-valued CNNs.
Simulations demonstrate the agreement between the theoretical and numerical
results.
- Abstract(参考訳): 実数値畳み込みニューラルネットワーク(CNN)の解釈可能性に関する最近の研究は、マッチングされたフィルタを通してデータの特徴を見つけるタスクと直接的かつ物理的に意味のあるリンクを明らかにした。
しかし、このパラダイムを適用して複素値付きCNNの解釈可能性を照らし出すと、悲惨な障害にぶつかる: 整合フィルタの一般クラスへの拡張(ここでは、広く線形整合フィルタ(WLMF)と呼ぶ)は、文献でのみ暗黙的に行われている。
この目的のために、複素数値CNNの動作の解釈可能性を確立するために、汎用的なWLMFパラダイムを導入し、そのソリューションを提供し、その性能解析を行う。
厳密化のために、wlmf解はノイズの確率密度を仮定することなく導出される。
WLMFの標準線形対数(SLMF)に対する理論的優位性は、出力信号対雑音比(SNR)の観点で提供される。
さらに、WLMFのSNRゲインに対する下界は、この境界に達する条件とともに導出される。
このことは、複素数値CNNにおける畳み込み-アクティベーション-プール連鎖をマッチングフィルタリングのレンズを通して再検討し、WLMFが物理的解釈可能性を提供し、一般的な複素数値CNNの説明可能性を高める可能性を明らかにするのに役立つ。
シミュレーションは理論結果と数値結果の一致を実証する。
関連論文リスト
- Inferring Dynamic Networks from Marginals with Iterative Proportional Fitting [57.487936697747024]
実世界のデータ制約から生じる一般的なネットワーク推論問題は、その時間集約された隣接行列から動的ネットワークを推論する方法である。
本稿では,ネットワーク構造に対する最小限の変更の下でIPFの収束を保証するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-28T20:24:56Z) - PICNN: A Pathway towards Interpretable Convolutional Neural Networks [12.31424771480963]
フィルタと画像のクラス間の絡み合いを軽減する新しい経路を導入する。
我々はBernoulliサンプリングを用いて、学習可能なフィルタクラス対応行列からフィルタクラスタ割り当て行列を生成する。
提案手法の有効性を,広く使用されている10のネットワークアーキテクチャ上で評価する。
論文 参考訳(メタデータ) (2023-12-19T11:36:03Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - SymNMF-Net for The Symmetric NMF Problem [62.44067422984995]
我々は,Symmetric NMF問題に対するSymNMF-Netと呼ばれるニューラルネットワークを提案する。
各ブロックの推測は最適化の単一イテレーションに対応することを示す。
実世界のデータセットに関する実証的な結果は、我々のSymNMF-Netの優位性を示している。
論文 参考訳(メタデータ) (2022-05-26T08:17:39Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Batch Normalization Tells You Which Filter is Important [49.903610684578716]
我々は,事前学習したCNNのBNパラメータに基づいて,各フィルタの重要性を評価することによって,簡易かつ効果的なフィルタ刈取法を提案する。
CIFAR-10とImageNetの実験結果から,提案手法が優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2021-12-02T12:04:59Z) - Self-interpretable Convolutional Neural Networks for Text Classification [5.55878488884108]
本論文では,ReLU-DNNに固有の局所線型モデルを用いて,テキスト分類問題に対する畳み込みニューラルネットワークの解釈手法を提案する。
提案手法は,より複雑なCNNモデルに対して,自己解釈可能で,同等の性能を有する擬似モデルを生成する。
論文 参考訳(メタデータ) (2021-05-18T15:19:59Z) - Generalized Approach to Matched Filtering using Neural Networks [4.535489275919893]
我々は,新たな深層学習と従来の技術との関係について重要な観察を行う。
一致するフィルタリングは、特定のニューラルネットワークと正式に等価です。
提案するニューラルネットワークアーキテクチャがマッチングフィルタリングよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-08T17:59:07Z) - A machine learning framework for LES closure terms [0.0]
我々は、暗黙の離散化に基づくフィルタと数値近似誤差を組み込んだLES閉包モデルの一貫した枠組みを導出する。
等方性等方性乱流の直接数値シミュレーション結果から, 異なるLESフィルタ関数の正確な閉包項を算出する。
与えられたアプリケーションに対して、GRUアーキテクチャは精度で明らかにネットワークよりも優れている。
論文 参考訳(メタデータ) (2020-10-01T08:42:37Z) - Learning Likelihoods with Conditional Normalizing Flows [54.60456010771409]
条件正規化フロー(CNF)はサンプリングと推論において効率的である。
出力空間写像に対する基底密度が入力 x 上で条件づけられた CNF について、条件密度 p(y|x) をモデル化する。
論文 参考訳(メタデータ) (2019-11-29T19:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。