論文の概要: A Momentum-Incorporated Non-Negative Latent Factorization of Tensors
Model for Dynamic Network Representation
- arxiv url: http://arxiv.org/abs/2305.02782v1
- Date: Thu, 4 May 2023 12:30:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-05 15:43:55.148869
- Title: A Momentum-Incorporated Non-Negative Latent Factorization of Tensors
Model for Dynamic Network Representation
- Title(参考訳): 動的ネットワーク表現のためのテンソルモデルのモーメント化非負因数分解
- Authors: Aoling Zeng
- Abstract要約: 大規模動的ネットワーク (LDN) は、多くのビッグデータ関連アプリケーションにおけるデータソースである。
テンソル(LFT)モデルの潜在因子化は、この時間パターンを効率的に抽出する。
勾配降下(SGD)解法に基づくLFTモデルは、トレーニングスキームによって制限されることが多く、尾収束が弱い。
本稿では,運動量付きSGDに基づく非線形LFTモデル(MNNL)を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: A large-scale dynamic network (LDN) is a source of data in many big
data-related applications due to their large number of entities and large-scale
dynamic interactions. They can be modeled as a high-dimensional incomplete
(HDI) tensor that contains a wealth of knowledge about time patterns. A Latent
factorization of tensors (LFT) model efficiently extracts this time pattern,
which can be established using stochastic gradient descent (SGD) solvers.
However, LFT models based on SGD are often limited by training schemes and have
poor tail convergence. To solve this problem, this paper proposes a novel
nonlinear LFT model (MNNL) based on momentum-incorporated SGD, which extracts
non-negative latent factors from HDI tensors to make training unconstrained and
compatible with general training schemes, while improving convergence accuracy
and speed. Empirical studies on two LDN datasets show that compared to existing
models, the MNNL model has higher prediction accuracy and convergence speed.
- Abstract(参考訳): 大規模動的ネットワーク (LDN) は、多数のエンティティと大規模動的相互作用のため、多くのビッグデータ関連アプリケーションのデータソースである。
これらは、時間パターンに関する豊富な知識を含む高次元不完全テンソル(HDI)としてモデル化することができる。
テンソル (LFT) モデルの潜在因子化は, 確率勾配降下 (SGD) 解法を用いてこの時間パターンを効率的に抽出する。
しかし、SGDに基づくLFTモデルはトレーニングスキームによって制限されることが多く、尾の収束性が低い。
そこで本研究では,HDIテンソルから非負の潜伏因子を抽出し,収束精度と速度を向上しつつ,トレーニングを非制約にし,一般的なトレーニングスキームと互換性を持たせる新しい非線形LFTモデル(MNNL)を提案する。
2つのLDNデータセットに関する実証的研究は、既存のモデルと比較して、MNNLモデルは予測精度と収束速度が高いことを示している。
関連論文リスト
- Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Large-scale Dynamic Network Representation via Tensor Ring Decomposition [0.0]
大規模動的ネットワーク(LDN)はインターネット時代においてますます重要になっている。
本研究では、LDNの効率的な表現学習のためのRing(TR)分解に基づくモデルを提案する。
2つの実LDNに関する実験的研究により,提案手法が既存モデルよりも精度が高いことを示す。
論文 参考訳(メタデータ) (2023-04-18T08:02:48Z) - Deep Neural Network Based Accelerated Failure Time Models using Rank
Loss [0.0]
加速故障時間(AFT)モデルは、障害時間と一連の共変量の間の対数線関係を仮定する。
ディープニューラルネットワーク(DNN)は過去数十年にわたって注目され、様々な分野で大きな成功を収めてきた。
本稿では,Gehan型損失モデルとサブサンプリング手法を組み合わせることで,AFTモデルにDNNを適用することを提案する。
論文 参考訳(メタデータ) (2022-06-13T08:38:18Z) - Truncated tensor Schatten p-norm based approach for spatiotemporal
traffic data imputation with complicated missing patterns [77.34726150561087]
本研究は, モード駆動繊維による3症例の欠失を含む, 4症例の欠失パターンについて紹介する。
本モデルでは, 目的関数の非性にもかかわらず, 乗算器の交互データ演算法を統合することにより, 最適解を導出する。
論文 参考訳(メタデータ) (2022-05-19T08:37:56Z) - Neural Operator with Regularity Structure for Modeling Dynamics Driven
by SPDEs [70.51212431290611]
偏微分方程式 (SPDE) は、大気科学や物理学を含む多くの分野において、力学をモデル化するための重要なツールである。
本研究では,SPDEによって駆動されるダイナミクスをモデル化するための特徴ベクトルを組み込んだニューラル演算子(NORS)を提案する。
動的Phi41モデルと2d Navier-Stokes方程式を含む様々なSPDE実験を行った。
論文 参考訳(メタデータ) (2022-04-13T08:53:41Z) - ES-dRNN: A Hybrid Exponential Smoothing and Dilated Recurrent Neural
Network Model for Short-Term Load Forecasting [1.4502611532302039]
複雑な時系列(TS)のため、短期負荷予測(STLF)は困難である
本稿では,複数の季節性を扱うハイブリッド階層型ディープラーニングモデルを提案する。
指数スムージング(ES)とリカレントニューラルネットワーク(RNN)を組み合わせる。
論文 参考訳(メタデータ) (2021-12-05T19:38:42Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - A Fully Tensorized Recurrent Neural Network [48.50376453324581]
重み付けされたRNNアーキテクチャを導入し、各リカレントセル内の個別の重み付け行列を共同で符号化する。
このアプローチはモデルのサイズを数桁削減するが、通常のRNNと同等あるいは優れた性能を維持している。
論文 参考訳(メタデータ) (2020-10-08T18:24:12Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。