論文の概要: \b{eta}-Divergence-Based Latent Factorization of Tensors model for QoS
prediction
- arxiv url: http://arxiv.org/abs/2208.06778v1
- Date: Sun, 14 Aug 2022 05:14:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 14:21:46.107379
- Title: \b{eta}-Divergence-Based Latent Factorization of Tensors model for QoS
prediction
- Title(参考訳): QoS予測のためのテンソルモデルのb{eta}-divergence-based Latent Factorization
- Authors: Zemiao Peng, Hao Wu
- Abstract要約: テンソル(NLFT)モデルの非負の潜在因子化は、サービス品質(QoS)データに隠された時間パターンをうまくモデル化することができる。
既存のNLFTモデルの目的関数はユークリッド距離に基づいている。
本稿では,ベータ分割に基づくNLFTモデル(Beta-NLFT)を提案する。
- 参考スコア(独自算出の注目度): 2.744577504320494
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A nonnegative latent factorization of tensors (NLFT) model can well model the
temporal pattern hidden in nonnegative quality-of-service (QoS) data for
predicting the unobserved ones with high accuracy. However, existing NLFT
models' objective function is based on Euclidean distance, which is only a
special case of \b{eta}-divergence. Hence, can we build a generalized NLFT
model via adopting \b{eta}-divergence to achieve prediction accuracy gain? To
tackle this issue, this paper proposes a \b{eta}-divergence-based NLFT model
(\b{eta}-NLFT). Its ideas are two-fold 1) building a learning objective with
\b{eta}-divergence to achieve higher prediction accuracy, and 2) implementing
self-adaptation of hyper-parameters to improve practicability. Empirical
studies on two dynamic QoS datasets demonstrate that compared with
state-of-the-art models, the proposed \b{eta}-NLFT model achieves the higher
prediction accuracy for unobserved QoS data.
- Abstract(参考訳): テンソルモデルの非負の潜在因子分解(nlft)は、非負のサービス品質(qos)データに隠された時間パターンをうまくモデル化し、高い精度で観測されていないものを予測できる。
しかし、既存のNLFTモデルの目的関数はユークリッド距離に基づいている。
したがって、予測精度向上を達成するために \b{eta}-divergence を用いて一般化された NLFT モデルを構築することができるだろうか?
この問題に対処するため,本研究では, NLFTモデル(\b{eta}-NLFT)を提案する。
その考えは二つある
1)予測精度を高めるために,b{eta}-divergence を用いた学習目標の構築,及び
2)ハイパーパラメータの自己適応による実践性の向上。
2つの動的QoSデータセットに関する実証研究は、最先端のモデルと比較して、提案した \b{eta}-NLFT モデルが観測されていないQoSデータに対して高い予測精度を達成することを示した。
関連論文リスト
- Supervised Score-Based Modeling by Gradient Boosting [49.556736252628745]
本稿では,スコアマッチングを組み合わせた勾配向上アルゴリズムとして,SSM(Supervised Score-based Model)を提案する。
推測時間と予測精度のバランスをとるため,SSMの学習とサンプリングに関する理論的解析を行った。
我々のモデルは、精度と推測時間の両方で既存のモデルより優れています。
論文 参考訳(メタデータ) (2024-11-02T07:06:53Z) - Sub-graph Based Diffusion Model for Link Prediction [43.15741675617231]
拡散確率モデル(Denoising Diffusion Probabilistic Models, DDPM)は、例外的な品質を持つ同時代の生成モデルである。
本研究では,ベイズ式による確率推定過程を分解するために,専用設計を用いたリンク予測のための新しい生成モデルを構築した。
提案手法は,(1)再トレーニングを伴わないデータセット間の転送可能性,(2)限られたトレーニングデータに対する有望な一般化,(3)グラフ敵攻撃に対する堅牢性など,多くの利点を示す。
論文 参考訳(メタデータ) (2024-09-13T02:23:55Z) - Correcting Model Bias with Sparse Implicit Processes [0.9187159782788579]
SIP(Sparse Implicit Processes)は,データ生成機構がモデルによって入力されるものと強く異なる場合,モデルバイアスを補正できることを示す。
合成データセットを用いて、SIPは、初期推定モデルの正確な予測よりもデータをよりよく反映する予測分布を提供することができることを示す。
論文 参考訳(メタデータ) (2022-07-21T18:00:01Z) - An Interpretable Probabilistic Model for Short-Term Solar Power
Forecasting Using Natural Gradient Boosting [0.0]
本稿では,高精度で信頼性が高く,鋭い予測を生成できる2段階確率予測フレームワークを提案する。
このフレームワークは、ポイント予測と予測間隔(PI)の両方について完全な透明性を提供する。
提案フレームワークの性能と適用性を強調するため,南ドイツにある2つのPV公園の実際のデータを用いている。
論文 参考訳(メタデータ) (2021-08-05T12:59:38Z) - When in Doubt: Neural Non-Parametric Uncertainty Quantification for
Epidemic Forecasting [70.54920804222031]
既存の予測モデルは不確実な定量化を無視し、誤校正予測をもたらす。
不確実性を考慮した時系列予測のためのディープニューラルネットワークの最近の研究にもいくつかの制限がある。
本稿では,予測タスクを確率的生成過程としてモデル化し,EPIFNPと呼ばれる機能的ニューラルプロセスモデルを提案する。
論文 参考訳(メタデータ) (2021-06-07T18:31:47Z) - Latent Gaussian Model Boosting [0.0]
ツリーブースティングは多くのデータセットに対して優れた予測精度を示す。
シミュレーションおよび実世界のデータ実験において,既存の手法と比較して予測精度が向上した。
論文 参考訳(メタデータ) (2021-05-19T07:36:30Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z) - Learning Consistent Deep Generative Models from Sparse Data via
Prediction Constraints [16.48824312904122]
我々は変分オートエンコーダやその他の深層生成モデルを学ぶための新しいフレームワークを開発する。
これら2つのコントリビューション -- 予測制約と一貫性制約 -- が,画像分類性能の有望な向上につながることを示す。
論文 参考訳(メタデータ) (2020-12-12T04:18:50Z) - A Bayesian Perspective on Training Speed and Model Selection [51.15664724311443]
モデルのトレーニング速度の測定値を用いて,その限界確率を推定できることを示す。
線形モデルと深部ニューラルネットワークの無限幅限界に対するモデル選択タスクの結果を検証する。
以上の結果から、勾配勾配勾配で訓練されたニューラルネットワークが、一般化する関数に偏りがある理由を説明するための、有望な新たな方向性が示唆された。
論文 参考訳(メタデータ) (2020-10-27T17:56:14Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z) - Understanding Neural Abstractive Summarization Models via Uncertainty [54.37665950633147]
seq2seq抽象要約モデルは、自由形式の方法でテキストを生成する。
モデルのトークンレベルの予測のエントロピー、すなわち不確実性について検討する。
要約とテキスト生成モデルをより広範囲に解析する上で,不確実性は有用であることを示す。
論文 参考訳(メタデータ) (2020-10-15T16:57:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。