論文の概要: Tensor Completion via Leverage Sampling and Tensor QR Decomposition for
Network Latency Estimation
- arxiv url: http://arxiv.org/abs/2307.06848v1
- Date: Tue, 27 Jun 2023 07:21:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-16 03:17:01.228039
- Title: Tensor Completion via Leverage Sampling and Tensor QR Decomposition for
Network Latency Estimation
- Title(参考訳): ネットワーク遅延推定のためのレバレッジサンプリングとテンソルQR分解によるテンソル補完
- Authors: Jun Lei, Ji-Qian Zhao, Jing-Qi Wang, An-Bao Xu
- Abstract要約: 大規模なネットワーク遅延推定には、多くの計算時間が必要です。
より高速で高精度な新しい手法を提案する。
数値実験により,本手法は精度のよい最先端アルゴリズムよりも高速であることが確認された。
- 参考スコア(独自算出の注目度): 2.982069479212266
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we consider the network latency estimation, which has been an
important metric for network performance. However, a large scale of network
latency estimation requires a lot of computing time. Therefore, we propose a
new method that is much faster and maintains high accuracy. The data structure
of network nodes can form a matrix, and the tensor model can be formed by
introducing the time dimension. Thus, the entire problem can be be summarized
as a tensor completion problem. The main idea of our method is improving the
tensor leverage sampling strategy and introduce tensor QR decomposition into
tensor completion. To achieve faster tensor leverage sampling, we replace
tensor singular decomposition (t-SVD) with tensor CSVD-QR to appoximate t-SVD.
To achieve faster completion for incomplete tensor, we use the tensor
$L_{2,1}$-norm rather than traditional tensor nuclear norm. Furthermore, we
introduce tensor QR decomposition into alternating direction method of
multipliers (ADMM) framework. Numerical experiments witness that our method is
faster than state-of-art algorithms with satisfactory accuracy.
- Abstract(参考訳): 本稿では,ネットワーク性能の重要な指標であるネットワークレイテンシ推定について考察する。
しかし、大規模なネットワーク遅延推定には多くの計算時間が必要である。
そこで本研究では,より高速で高精度な新しい手法を提案する。
ネットワークノードのデータ構造は行列を形成し、時間次元を導入することでテンソルモデルを形成することができる。
したがって、全問題をテンソル完備問題として要約することができる。
本手法の主な考え方は、テンソルレバレッジサンプリング戦略を改善し、テンソルQR分解をテンソル補完に導入することである。
高速なテンソルレバレッジサンプリングを実現するため、テンソル特異分解(t-SVD)をテンソルCSVD-QRに置き換えてt-SVDを近似する。
不完全テンソルの高速な完備化を実現するため、従来のテンソル核ノルムではなく、テンソル$L_{2,1}$ノルムを用いる。
さらに,テンソルQR分解を乗算器(ADMM)フレームワークの交互方向法に導入する。
数値実験により,本手法は精度の良い最先端アルゴリズムよりも高速であることがわかった。
関連論文リスト
- Scalable CP Decomposition for Tensor Learning using GPU Tensor Cores [47.87810316745786]
本研究では,エクサスケールテンソル分解を支援する圧縮型テンソル分解フレームワークを提案する。
ベースラインと比較すると、エクスカスケール・テンソルは8000倍のテンソルをサポートし、スピードアップは6.95倍である。
また,本手法を遺伝子解析とテンソル層ニューラルネットワークを含む実世界の2つの応用に適用する。
論文 参考訳(メタデータ) (2023-11-22T21:04:59Z) - Tensor Decomposition Based Attention Module for Spiking Neural Networks [18.924242014716647]
我々は、線形に成長するパラメータで優れた結果を示すテキストプロジェクションフルアテンション(PFA)モジュールを設計する。
本手法は,静的ベンチマークと動的ベンチマークの両方において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-10-23T05:25:49Z) - Latent Matrices for Tensor Network Decomposition and to Tensor
Completion [8.301418317685906]
テンソルを小さく分解し,アルゴリズムの計算を高速化する新しい高階テンソル分解モデルを提案する。
LMTN-PAM, LMTN-SVD, LMTN-ARの3つの最適化アルゴリズムを開発し, テンソル補完タスクに適用した。
実験の結果, LMTN-SVDアルゴリズムはFCTN-PAMアルゴリズムの3~6倍高速であり, 1.8ポイントの精度低下しか得られなかった。
論文 参考訳(メタデータ) (2022-10-07T08:19:50Z) - Truncated tensor Schatten p-norm based approach for spatiotemporal
traffic data imputation with complicated missing patterns [77.34726150561087]
本研究は, モード駆動繊維による3症例の欠失を含む, 4症例の欠失パターンについて紹介する。
本モデルでは, 目的関数の非性にもかかわらず, 乗算器の交互データ演算法を統合することにより, 最適解を導出する。
論文 参考訳(メタデータ) (2022-05-19T08:37:56Z) - A high-order tensor completion algorithm based on Fully-Connected Tensor
Network weighted optimization [8.229028597459752]
完全連結テンソルネットワーク重み付き最適化(FCTN-WOPT)と呼ばれる新しいテンソル補完法を提案する。
このアルゴリズムは、FCTN分解から因子を初期化して完成テンソルの構成を行う。
その結果,FCTN-WOPTが高次テンソル完備化に適用された際の高性能性を示した。
論文 参考訳(メタデータ) (2022-04-04T13:46:32Z) - Robust M-estimation-based Tensor Ring Completion: a Half-quadratic
Minimization Approach [14.048989759890475]
我々はM推定器を誤差統計量として用いるテンソル環完備化への頑健なアプローチを開発する。
truncatedの特異値分解と行列分解に基づくHQに基づく2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-19T04:37:50Z) - MTC: Multiresolution Tensor Completion from Partial and Coarse
Observations [49.931849672492305]
既存の完備化の定式化は、主に1つのテンソルからの部分的な観測に依存する。
この問題を解決するために,効率的なマルチレゾリューション・コンプリート・モデル(MTC)を提案する。
論文 参考訳(メタデータ) (2021-06-14T02:20:03Z) - Multi-version Tensor Completion for Time-delayed Spatio-temporal Data [50.762087239885936]
実世界の時間データは、様々なデータ読み込み遅延のために不完全または不正確な場合が多い。
経時的に更新を予測するための低ランクテンソルモデルを提案する。
最良基準法に比べて最大27.2%低いルート平均二乗誤差が得られる。
論文 参考訳(メタデータ) (2021-05-11T19:55:56Z) - Beyond Lazy Training for Over-parameterized Tensor Decomposition [69.4699995828506]
過度なパラメータ化対象の勾配勾配は遅延学習体制を超え、データ中の特定の低ランク構造を利用する可能性があることを示す。
以上の結果から,過パラメータ化対象の勾配勾配は遅延学習体制を超え,データ中の特定の低ランク構造を利用する可能性が示唆された。
論文 参考訳(メタデータ) (2020-10-22T00:32:12Z) - Tensor train decompositions on recurrent networks [60.334946204107446]
マトリックス製品状態(MPS)テンソルトレインは、ストレージの削減と推論時の計算時間の観点から、MPOよりも魅力的な特徴を持つ。
理論解析により,MPSテンソル列車はLSTMネットワーク圧縮の最前線に置かれるべきであることを示す。
論文 参考訳(メタデータ) (2020-06-09T18:25:39Z) - Grassmannian Optimization for Online Tensor Completion and Tracking with
the t-SVD [10.137631021498109]
t-SVD は三次テンソルに対するよく研究されたブロック項分解の特殊化であることを示す。
非完全ストリーミング2次元データから自由部分加群の変化を追跡するアルゴリズムを提案する。
提案手法は精度は高いが, 実アプリケーション上での最先端のテンソル補完アルゴリズムよりも計算時間の方がはるかに高速である。
論文 参考訳(メタデータ) (2020-01-30T15:56:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。