論文の概要: Geometric Matrix Completion via Sylvester Multi-Graph Neural Network
- arxiv url: http://arxiv.org/abs/2206.09477v1
- Date: Sun, 19 Jun 2022 19:59:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 17:48:23.284881
- Title: Geometric Matrix Completion via Sylvester Multi-Graph Neural Network
- Title(参考訳): シルベスター多グラフニューラルネットワークによる幾何学的行列補完
- Authors: Boxin Du, Changhe Yuan, Fei Wang, Hanghang Tong
- Abstract要約: 本稿では,マルチネットワーク・ニューラルアグリゲーション・モジュールと,それ以前のマルチネットワーク・アソシエーション学習モジュールからなるエンドツーエンド・ニューラル・フレームワークであるSYMGNNを提案する。
実世界のデータセットに対する実証的な評価は、SYMGNNのインスタンス化が、幾何行列補完タスクのベースラインを全体的に上回っていることを示している。
- 参考スコア(独自算出の注目度): 47.91897604343119
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the success of the Sylvester equation empowered methods on various
graph mining applications, such as semi-supervised label learning and network
alignment, there also exists several limitations. The Sylvester equation's
inability of modeling non-linear relations and the inflexibility of tuning
towards different tasks restrict its performance. In this paper, we propose an
end-to-end neural framework, SYMGNN, which consists of a multi-network neural
aggregation module and a prior multi-network association incorporation learning
module. The proposed framework inherits the key ideas of the Sylvester
equation, and meanwhile generalizes it to overcome aforementioned limitations.
Empirical evaluations on real-world datasets show that the instantiations of
SYMGNN overall outperform the baselines in geometric matrix completion task,
and its low-rank instantiation could further reduce the memory consumption by
16.98\% on average.
- Abstract(参考訳): シルヴェスター方程式が成功したにもかかわらず、半教師付きラベル学習やネットワークアライメントなど、様々なグラフマイニングの手法にはいくつかの制限がある。
シルヴェスター方程式の非線形関係をモデル化できないことと、異なるタスクに対するチューニングの柔軟性は、その性能を制限している。
本稿では,マルチネットワーク・ニューラルアグリゲーション・モジュールと,それ以前のマルチネットワーク・アソシエーション学習モジュールからなるエンドツーエンド・ニューラル・フレームワークであるSYMGNNを提案する。
提案したフレームワークはシルヴェスター方程式の鍵となるアイデアを継承し、上記の制限を克服するために一般化する。
実世界のデータセットに対する実証的な評価は、SYMGNNのインスタンス化は、幾何行列補完タスクのベースラインを全体的に上回り、低ランクのインスタンス化は、メモリ消費を平均16.98\%削減することを示している。
関連論文リスト
- Cons-training tensor networks [2.8834278113855896]
テンソルネットワークと呼ばれる新しいファミリーを導入する。
textitconstrained matrix product state (MPS)
これらのネットワークは、不等式を含むちょうど任意の離散線型制約をスパースブロック構造に含んでいる。
これらのネットワークは、特に、可能空間上で厳密にサポートされた分散をモデル化するために調整されている。
論文 参考訳(メタデータ) (2024-05-15T00:13:18Z) - The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - The Decimation Scheme for Symmetric Matrix Factorization [0.0]
行列分解(Matrix factorization)は、その広範囲な応用により重要になった推論問題である。
我々はこの広範囲なランク問題について研究し、最近導入した代替の「決定」手順を拡張した。
本稿では,デシメーションを実装し,行列分解を行う基底状態探索に基づく簡単なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:53:45Z) - Subquadratic Overparameterization for Shallow Neural Networks [60.721751363271146]
私たちは、標準的なニューラルトレーニング戦略を採用することができる分析フレームワークを提供しています。
我々は、Desiderata viaak-Lojasiewicz, smoothness, and standard assumptionsを達成する。
論文 参考訳(メタデータ) (2021-11-02T20:24:01Z) - Joint Network Topology Inference via Structured Fusion Regularization [70.30364652829164]
結合ネットワークトポロジ推論は、異種グラフ信号から複数のグラフラプラシア行列を学習する標準的な問題を表す。
新規な構造化融合正規化に基づく一般グラフ推定器を提案する。
提案するグラフ推定器は高い計算効率と厳密な理論保証の両方を享受できることを示す。
論文 参考訳(メタデータ) (2021-03-05T04:42:32Z) - Provable Model-based Nonlinear Bandit and Reinforcement Learning: Shelve
Optimism, Embrace Virtual Curvature [61.22680308681648]
決定論的報酬を有する1層ニューラルネットバンディットにおいても,グローバル収束は統計的に難解であることを示す。
非線形バンディットとRLの両方に対して,オンラインモデル学習者による仮想アセンジ(Virtual Ascent with Online Model Learner)というモデルベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-08T12:41:56Z) - Learning for Integer-Constrained Optimization through Neural Networks
with Limited Training [28.588195947764188]
我々は、その構成成分の機能の観点から完全に解釈可能な、対称的で分解されたニューラルネットワーク構造を導入する。
整数制約の根底にあるパターンを活用することで、導入されたニューラルネットワークは、限られたトレーニングでより優れた一般化性能を提供する。
提案手法は, 半分解フレームワークにさらに拡張可能であることを示す。
論文 参考訳(メタデータ) (2020-11-10T21:17:07Z) - Recurrent Graph Tensor Networks: A Low-Complexity Framework for
Modelling High-Dimensional Multi-Way Sequence [24.594587557319837]
我々は、リカレントニューラルネットワーク(RNN)における隠れ状態のモデリングを近似するグラフフィルタフレームワークを開発する。
提案するフレームワークは、複数のマルチウェイシーケンスモデリングタスクを通じて検証され、従来のRNNに対してベンチマークされる。
提案したRGTNは,標準RNNよりも優れるだけでなく,従来のRNNと関連する次元の曲線を緩和できることを示す。
論文 参考訳(メタデータ) (2020-09-18T10:13:36Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。