論文の概要: Precision Neural Networks: Joint Graph And Relational Learning
- arxiv url: http://arxiv.org/abs/2509.14821v1
- Date: Thu, 18 Sep 2025 10:22:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:53.166354
- Title: Precision Neural Networks: Joint Graph And Relational Learning
- Title(参考訳): 高精度ニューラルネットワーク:ジョイントグラフとリレーショナルラーニング
- Authors: Andrea Cavallo, Samuel Rey, Antonio G. Marques, Elvin Isufi,
- Abstract要約: 共分散ニューラルネットワーク(VNN)は、データの共分散行列によって決定されたグラフ上で畳み込みを行う。
精度行列(逆共分散)の精度ニューラルネットワーク(PNN)について検討する。
我々は,ネットワークパラメータと精度行列を協調的に学習する最適化問題を定式化し,交互に最適化することで解決する。
- 参考スコア(独自算出の注目度): 36.05842226689587
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: CoVariance Neural Networks (VNNs) perform convolutions on the graph determined by the covariance matrix of the data, which enables expressive and stable covariance-based learning. However, covariance matrices are typically dense, fail to encode conditional independence, and are often precomputed in a task-agnostic way, which may hinder performance. To overcome these limitations, we study Precision Neural Networks (PNNs), i.e., VNNs on the precision matrix -- the inverse covariance. The precision matrix naturally encodes statistical independence, often exhibits sparsity, and preserves the covariance spectral structure. To make precision estimation task-aware, we formulate an optimization problem that jointly learns the network parameters and the precision matrix, and solve it via alternating optimization, by sequentially updating the network weights and the precision estimate. We theoretically bound the distance between the estimated and true precision matrices at each iteration, and demonstrate the effectiveness of joint estimation compared to two-step approaches on synthetic and real-world data.
- Abstract(参考訳): 共分散ニューラルネットワーク(VNN)は、データの共分散行列によって決定されるグラフ上で畳み込みを行い、表現的かつ安定した共分散に基づく学習を可能にする。
しかし、共分散行列は一般に密度が高く、条件付き独立性を符号化できず、しばしばタスクに依存しない方法でプリ計算されるため、性能を損なう可能性がある。
これらの制限を克服するために、精度ニューラルネットワーク(Precision Neural Networks, PNN)、すなわち、逆共分散である精度行列上のVNNについて研究する。
精度行列は自然に統計的独立性を符号化し、しばしば空間性を示し、共分散スペクトル構造を保存する。
精度推定タスクアウェアを実現するために,ネットワークパラメータと精度行列を協調的に学習する最適化問題を定式化し,ネットワーク重みと精度推定を逐次更新することにより,最適化を交互に行う。
理論的には各繰り返しにおける推定行列と真の精度行列の距離を定め、合成および実世界のデータに対する2段階のアプローチと比較して、共同推定の有効性を実証する。
関連論文リスト
- Covariance Density Neural Networks [5.4141465747474475]
グラフニューラルネットワークは、ネットワークデータのモデル化と予測方法を再定義した。
シグナルをモデル化する基盤となる正しいグラフ構造を選択することには、コンセンサスがない。
我々は,脳波脳波画像分類において,被験者に依存しない脳波脳波画像分類において高い性能が得られることを示す。
論文 参考訳(メタデータ) (2025-05-16T11:38:13Z) - Neural Conformal Control for Time Series Forecasting [54.96087475179419]
非定常環境における適応性を高める時系列のニューラルネットワーク共形予測手法を提案する。
提案手法は,ニューラルネットワークエンコーダを用いた補助的マルチビューデータを活用することにより,望ましい対象範囲を達成するために設計されたニューラルネットワークコントローラとして機能する。
予測間隔の整合性に優れたキャリブレーションを組み合わさった手法は, 適用範囲と確率的精度の大幅な向上を実証的に示す。
論文 参考訳(メタデータ) (2024-12-24T03:56:25Z) - Symmetry Discovery for Different Data Types [52.2614860099811]
等価ニューラルネットワークは、そのアーキテクチャに対称性を取り入れ、より高度な一般化性能を実現する。
本稿では,タスクの入出力マッピングを近似したトレーニングニューラルネットワークによる対称性発見手法であるLieSDを提案する。
我々は,2体問題,慣性行列予測のモーメント,トップクォークタグ付けといった課題におけるLieSDの性能を検証した。
論文 参考訳(メタデータ) (2024-10-13T13:39:39Z) - Efficient learning of differential network in multi-source non-paranormal graphical models [2.5905193932831585]
本稿では,2種類の非正規グラフィカルモデル間のスパース構造変化や差分ネットワークの学習に対処する。
複数の情報源からのデータセットを組み合わせるという我々の戦略は、実世界の問題における差分ネットワークの推測に非常に効果的であることが示されている。
論文 参考訳(メタデータ) (2024-10-03T13:59:38Z) - Sparse Covariance Neural Networks [15.616852692528594]
スパース共分散ニューラルネットワーク(S-VNN)は,名目VNNよりも安定であることを示す。
本稿では, S-VNNのタスク性能, 安定性, 計算効率を, 名目VNNと比較して改善したことを示す。
論文 参考訳(メタデータ) (2024-10-02T15:37:12Z) - Neural Tangent Kernels Motivate Graph Neural Networks with
Cross-Covariance Graphs [94.44374472696272]
グラフニューラルネットワーク(GNN)の文脈におけるNTKとアライメントについて検討する。
その結果、2層GNNのアライメントの最適性に関する理論的保証が確立された。
これらの保証は、入力と出力データの相互共分散の関数であるグラフシフト演算子によって特徴づけられる。
論文 参考訳(メタデータ) (2023-10-16T19:54:21Z) - Robust Online Covariance and Sparse Precision Estimation Under Arbitrary
Data Corruption [1.5850859526672516]
本稿では,オンラインシナリオにおける共分散を頑健に推定する改良型トリミング・インナー・プロデューサアルゴリズムを提案する。
推定値の誤差バウンドおよび収束特性を,アルゴリズムの真精度行列に与える。
論文 参考訳(メタデータ) (2023-09-16T05:37:28Z) - coVariance Neural Networks [119.45320143101381]
グラフニューラルネットワーク(GNN)は、グラフ構造化データ内の相互関係を利用して学習する効果的なフレームワークである。
我々は、サンプル共分散行列をグラフとして扱う、共分散ニューラルネットワーク(VNN)と呼ばれるGNNアーキテクチャを提案する。
VNN の性能は PCA ベースの統計手法よりも安定していることを示す。
論文 参考訳(メタデータ) (2022-05-31T15:04:43Z) - Meta Learning Low Rank Covariance Factors for Energy-Based Deterministic
Uncertainty [58.144520501201995]
ニューラルネットワーク層のBi-Lipschitz正規化は、各レイヤの特徴空間におけるデータインスタンス間の相対距離を保存する。
注意セットエンコーダを用いて,タスク固有の共分散行列を効率的に構築するために,対角的,対角的,低ランクな要素のメタ学習を提案する。
また,最終的な予測分布を達成するために,スケールしたエネルギーを利用する推論手法を提案する。
論文 参考訳(メタデータ) (2021-10-12T22:04:19Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。