論文の概要: CoVariance Filters and Neural Networks over Hilbert Spaces
- arxiv url: http://arxiv.org/abs/2509.13178v2
- Date: Wed, 17 Sep 2025 14:12:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 12:21:58.940137
- Title: CoVariance Filters and Neural Networks over Hilbert Spaces
- Title(参考訳): ヒルベルト空間上の共分散フィルタとニューラルネットワーク
- Authors: Claudio Battiloro, Andrea Cavallo, Elvin Isufi,
- Abstract要約: コバリアンスニューラルネットワーク(VNN)は、有限次元ヒルベルト空間上で定義された信号の経験的共分散行列上でグラフ畳み込みを行う。
無限次元ヒルベルト空間上で定義された信号に対する新しい畳み込み学習フレームワークを導入することで、第一歩を踏み出す。
- 参考スコア(独自算出の注目度): 27.36628487671159
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: CoVariance Neural Networks (VNNs) perform graph convolutions on the empirical covariance matrix of signals defined over finite-dimensional Hilbert spaces, motivated by robustness and transferability properties. Yet, little is known about how these arguments extend to infinite-dimensional Hilbert spaces. In this work, we take a first step by introducing a novel convolutional learning framework for signals defined over infinite-dimensional Hilbert spaces, centered on the (empirical) covariance operator. We constructively define Hilbert coVariance Filters (HVFs) and design Hilbert coVariance Networks (HVNs) as stacks of HVF filterbanks with nonlinear activations. We propose a principled discretization procedure, and we prove that empirical HVFs can recover the Functional PCA (FPCA) of the filtered signals. We then describe the versatility of our framework with examples ranging from multivariate real-valued functions to reproducing kernel Hilbert spaces. Finally, we validate HVNs on both synthetic and real-world time-series classification tasks, showing robust performance compared to MLP and FPCA-based classifiers.
- Abstract(参考訳): コバリアンスニューラルネットワーク(VNN)は、有限次元ヒルベルト空間上で定義された信号の経験的共分散行列上でグラフ畳み込みを行う。
しかし、これらの議論が無限次元ヒルベルト空間にどのように拡張されるかについてはほとんど分かっていない。
本研究では、無限次元ヒルベルト空間上で定義された信号に対して、(経験的)共分散作用素を中心とした新しい畳み込み学習フレームワークを導入する。
本稿では,Hilbert coVariance Filters (HVFs) とHilbert coVariance Networks (HVNs) を非線形アクティベーションを持つHVFフィルタバンクのスタックとして構成する。
そこで本研究では,HVFがフィルタ信号の機能的PCA(FPCA)を回復できることを実証する。
次に、多変量実数値関数からカーネルヒルベルト空間の再現に至るまで、我々のフレームワークの汎用性について述べる。
最後に,HVNを実世界の時系列分類タスクと実世界の時系列分類タスクの両方で検証し,MPPとFPCAベースの分類器と比較して頑健な性能を示した。
関連論文リスト
- RKHS Representation of Algebraic Convolutional Filters with Integral Operators [111.57971404925486]
本稿では、積分作用素の範囲が自然にRKHS畳み込み信号モデルを誘導することを示す理論を開発する。
積分作用素によるフィルタリングは反復箱積に対応し、ユニタリカーネル代数が生じることを示す。
本研究は, グラノン信号処理における固有分解とRKHS表現の正確な関係を確立し, 自然に有向グラノンに拡張し, 空間スペクトルの新たな局在化を可能とした。
論文 参考訳(メタデータ) (2026-02-22T08:28:34Z) - NeuraLSP: An Efficient and Rigorous Neural Left Singular Subspace Preconditioner for Conjugate Gradient Methods [49.84495044725856]
NeuraLSPはニューラルプレコンディショナーである。
提案手法は, インフレーションのランク付けにおける理論的保証と実証的堅牢性の両方を示し, 最大53%の高速化を実現した。
論文 参考訳(メタデータ) (2026-01-28T02:15:16Z) - The Vekua Layer: Exact Physical Priors for Implicit Neural Representations via Generalized Analytic Functions [0.0]
Inlicit Neural Representations (INR)は、物理場をパラメータ化するための強力なパラダイムとして登場した。
一般化分析理論に基づく微分スペクトル法を導入する。
本手法は物理インフォームドスペクトルフィルタとして効果的に機能することを示す。
論文 参考訳(メタデータ) (2025-12-11T21:57:21Z) - Functional Adjoint Sampler: Scalable Sampling on Infinite Dimensional Spaces [22.412483650808728]
無限次元関数空間に対する最適制御ベース拡散サンプリング器を提案する。
合成電位および実分子系における遷移経路サンプリング性能に優れることを示す。
論文 参考訳(メタデータ) (2025-11-09T05:51:03Z) - Projective Kolmogorov Arnold Neural Networks (P-KANs): Entropy-Driven Functional Space Discovery for Interpretable Machine Learning [0.0]
Kolmogorov-Arnold Networks (KAN) は学習可能な非線形性をノードからエッジに移動させる。
現在のkanは、高次元スプラインパラメータ空間の冗長性に起因する基本的な非効率性に悩まされている。
本稿では,エッジ関数発見を導く新しいトレーニングフレームワークであるProjective Kolmogorov-Arnold Networks (P-KANs)を紹介する。
論文 参考訳(メタデータ) (2025-09-24T12:15:37Z) - Contraction, Criticality, and Capacity: A Dynamical-Systems Perspective on Echo-State Networks [13.857230672081489]
本稿では,機能解析,ランダム・アトラクタ理論,最近の神経科学的な知見を融合した統合的動的システム治療について述べる。
まず,大域リプシッツ力学とともにエコー状態特性(初期条件の洗い出し)がフェーディングメモリ特性をもたらすことを証明した。
第二に、ストーン・ワイエルシュトラスの戦略を用いて、非線形貯水池と線形リードアウトを持つESNが、因果的、タイムイン・フェイディング・メモリ・フィルタのバナッハ空間に密着していることを示す。
第3に、メモリ容量スペクトルを用いて計算資源を定量化し、どのように示すかを示す。
論文 参考訳(メタデータ) (2025-07-24T14:41:18Z) - A Non-negative VAE:the Generalized Gamma Belief Network [49.970917207211556]
ガンマ信念ネットワーク(GBN)は、テキストデータ中の多層解釈可能な潜在表現を明らかにする可能性を実証している。
本稿では、一般化ガンマ信念ネットワーク(Generalized GBN)を導入し、元の線形生成モデルをより表現力のある非線形生成モデルに拡張する。
また、潜伏変数の後方分布を近似する上向きのワイブル推論ネットワークを提案する。
論文 参考訳(メタデータ) (2024-08-06T18:18:37Z) - New Equivalences Between Interpolation and SVMs: Kernels and Structured
Features [22.231455330003328]
本稿では、任意のカーネルを再生するヒルベルト空間において、ラベルに対するフレキシブルな生成モデルのクラスでSVPを証明するための新しいフレキシブルな分析フレームワークを提案する。
我々は、SVPが以前の作業でカバーされていない多くの興味深い設定で発生していることを示し、カーネルSVM分類のための新しい一般化結果を証明するためにこれらの結果を活用する。
論文 参考訳(メタデータ) (2023-05-03T17:52:40Z) - Tangent Bundle Convolutional Learning: from Manifolds to Cellular Sheaves and Back [84.61160272624262]
この畳み込み操作に基づいて,タンジェントバンドルフィルタとタンジェントバンドルニューラルネットワーク(TNN)を定義する。
タンジェントバンドルフィルタは、スカラー多様体フィルタ、グラフフィルタ、標準畳み込みフィルタを連続的に一般化するスペクトル表現を許容する。
提案したアーキテクチャが様々な学習課題に与える影響を数値的に評価する。
論文 参考訳(メタデータ) (2023-03-20T17:57:15Z) - A Unified Algebraic Perspective on Lipschitz Neural Networks [88.14073994459586]
本稿では,様々なタイプの1-Lipschitzニューラルネットワークを統一する新しい視点を提案する。
そこで本研究では,SDP(Common semidefinite Programming)条件の解析解を求めることによって,既存の多くの手法を導出し,一般化することができることを示す。
SDPベースのLipschitz Layers (SLL) と呼ばれる我々のアプローチは、非自明で効率的な凸ポテンシャル層の一般化を設計できる。
論文 参考訳(メタデータ) (2023-03-06T14:31:09Z) - Unified Fourier-based Kernel and Nonlinearity Design for Equivariant
Networks on Homogeneous Spaces [52.424621227687894]
等質空間上の群同変ネットワークに対する統一的枠組みを導入する。
昇降した特徴場のフーリエ係数の空間性を利用する。
安定化部分群におけるフーリエ係数としての特徴を取り扱う他の方法が、我々のアクティベーションの特別な場合であることを示す。
論文 参考訳(メタデータ) (2022-06-16T17:59:01Z) - Continuous Generative Neural Networks: A Wavelet-Based Architecture in Function Spaces [1.7205106391379021]
本研究では,連続的な環境下での連続生成ニューラルネットワーク(CGNN)について検討する。
このアーキテクチャはDCGANにインスパイアされ、1つの完全に接続された層、いくつかの畳み込み層、非線形活性化関数を持つ。
本稿では,畳み込みフィルタの条件と,CGNNが注入可能であることを保証する非線形性について述べる。
論文 参考訳(メタデータ) (2022-05-29T11:06:29Z) - Global convergence of ResNets: From finite to infinite width using
linear parameterization [0.0]
残差ブロックが非線形でありながら線形パラメトリゼーションを有する残差ネットワーク(Residual Networks, ResNets)について検討する。
この極限において、局所的なポリアック・ロジャシエヴィチの不等式を証明し、遅延状態を取得する。
私たちの分析は実用的で定量化されたレシピにつながります。
論文 参考訳(メタデータ) (2021-12-10T13:38:08Z) - Non-parametric Active Learning and Rate Reduction in Many-body Hilbert
Space with Rescaled Logarithmic Fidelity [4.781805457699204]
量子と量子に着想を得た機械学習において、最初のステップはヒルベルト空間として知られる量子空間にデータを埋め込むことである。
量子空間における再スケール対数忠実度(RLF)と非パラメトリック能動学習(RLF-NAL)を提案する。
以上の結果から,Hilbert空間における機械学習は,最大符号化レート削減の原理に適合していることが示された。
論文 参考訳(メタデータ) (2021-07-01T03:13:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。