論文の概要: QoSDiff: An Implicit Topological Embedding Learning Framework Leveraging Denoising Diffusion and Adversarial Attention for Robust QoS Prediction
- arxiv url: http://arxiv.org/abs/2512.04596v2
- Date: Fri, 05 Dec 2025 14:24:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:56.733972
- Title: QoSDiff: An Implicit Topological Embedding Learning Framework Leveraging Denoising Diffusion and Adversarial Attention for Robust QoS Prediction
- Title(参考訳): QoSDiff:ロバストなQoS予測のための拡散と逆アテンションを利用した暗黙のトポロジカルな埋め込み学習フレームワーク
- Authors: Guanchen Du, Jianlong Xu, Wei Wei,
- Abstract要約: 本稿では,明示的なグラフ構築の前提条件を回避した新しい埋め込み学習フレームワークであるemphQoSDiffを紹介する。
これらの課題に対処するために,明示的なグラフ構築の前提条件を回避した新しい埋め込み学習フレームワークであるemphQoSDiffを紹介する。
- 参考スコア(独自算出の注目度): 5.632045399777709
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate Quality of Service (QoS) prediction is fundamental to service computing, providing essential data-driven guidance for service selection and ensuring superior user experiences. However, prevalent approaches, particularly Graph Neural Networks (GNNs), heavily rely on constructing explicit user--service interaction graphs. Such reliance not only leads to the intractability of explicit graph construction in large-scale scenarios but also limits the modeling of implicit topological relationships and exacerbates susceptibility to environmental noise and outliers. To address these challenges, this paper introduces \emph{QoSDiff}, a novel embedding learning framework that bypasses the prerequisite of explicit graph construction. Specifically, it leverages a denoising diffusion probabilistic model to recover intrinsic latent structures from noisy initializations. To further capture high-order interactions, we propose an adversarial interaction module that integrates a bidirectional hybrid attention mechanism. This adversarial paradigm dynamically distinguishes informative patterns from noise, enabling a dual-perspective modeling of intricate user--service associations. Extensive experiments on two large-scale real-world datasets demonstrate that QoSDiff significantly outperforms state-of-the-art baselines. Notably, the results highlight the framework's superior cross-dataset generalization capability and exceptional robustness against observational noise.
- Abstract(参考訳): 正確なQuality of Service(QoS)予測は、サービスコンピューティングの基本であり、サービス選択のためのデータ駆動ガイダンスを提供し、優れたユーザエクスペリエンスを保証する。
しかし、一般的なアプローチ、特にグラフニューラルネットワーク(GNN)は、明示的なユーザ-サービスインタラクショングラフの構築に大きく依存している。
このような依存は、大規模シナリオにおける明示的なグラフ構築の難易度を損なうだけでなく、暗黙的なトポロジカルな関係のモデリングを制限し、環境騒音や外れ値への感受性を悪化させる。
これらの課題に対処するために、明示的なグラフ構築の前提条件をバイパスする新しい埋め込み学習フレームワークである 'emph{QoSDiff} を紹介する。
具体的には,ノイズ初期化から内在性潜伏構造を復元するために拡散確率モデルを利用する。
さらに高次相互作用を捉えるために,双方向ハイブリッドアテンション機構を統合した対向相互作用モジュールを提案する。
この敵対的パラダイムは、情報的パターンとノイズを動的に区別し、複雑なユーザ・サービス・アソシエーションの二重パースペクティブ・モデリングを可能にする。
2つの大規模な実世界のデータセットに対する大規模な実験は、QoSDiffが最先端のベースラインを大幅に上回っていることを示している。
特に、この結果は、フレームワークの優れたクロスデータセットの一般化能力と、観測ノイズに対する例外的な堅牢性を強調している。
関連論文リスト
- Dual-granularity Sinkhorn Distillation for Enhanced Learning from Long-tailed Noisy Data [67.25796812343454]
ディープラーニングのための実世界のデータセットは、クラス不均衡とラベルノイズの共起的な課題にしばしば悩まされる。
蒸留と相補的な知見の統合により二重強靭性を高める新しいフレームワークであるD-SINKを提案する。
ベンチマークデータセットの実験では、D-SINKはロバスト性を大幅に向上し、長い尾のノイズデータから学習する際の強い経験的性能を達成することが示された。
論文 参考訳(メタデータ) (2025-10-09T13:05:27Z) - From Entity Reliability to Clean Feedback: An Entity-Aware Denoising Framework Beyond Interaction-Level Signals [20.323837731778358]
暗黙のフィードバックはレコメンデーションシステムの中心であるが、本質的にノイズがあり、しばしばモデルのトレーニングやユーザエクスペリエンスの劣化を損なう。
textbfEARD(textbfEntity-textbfAware textbfReliability-textbfDriven Denoising)は,インタラクションレベルの信号からエンティティレベルの信頼性に移行する軽量フレームワークである。
論文 参考訳(メタデータ) (2025-08-14T17:20:12Z) - Semantic Item Graph Enhancement for Multimodal Recommendation [49.66272783945571]
マルチモーダルレコメンデーションシステムは、商品のマルチモーダル情報を活用することで、パフォーマンスの向上に注目が集まっている。
先行する手法は、しばしばモダリティ固有のアイテム・イテム意味グラフを生のモダリティの特徴から構築する。
これらのセマンティックグラフは、アイテム間の協調信号のモデリングが不十分ななど、セマンティックな欠陥に悩まされている。
論文 参考訳(メタデータ) (2025-08-08T09:20:50Z) - Mitigating Attention Hacking in Preference-Based Reward Modeling via Interaction Distillation [62.14692332209628]
インタラクション蒸留(Interaction Distillation)は、注意レベル最適化によるより適切な嗜好モデリングのための新しいトレーニングフレームワークである。
最先端のRM最適化法と比較して、より安定で一般化可能な報酬信号を提供する。
論文 参考訳(メタデータ) (2025-08-04T17:06:23Z) - A Noise-Resilient Semi-Supervised Graph Autoencoder for Overlapping Semantic Community Detection [0.0]
重なり合う構造を持つネットワークにおけるコミュニティ検出は依然として重要な課題である。
重なり合うコミュニティを頑健に検出するために,グラフの多面的注意とモジュール性を組み合わせた半教師付きグラフオートエンコーダを提案する。
主なイノベーションは、耐雑音性アーキテクチャと、コミュニティの品質に最適化されたセマンティックな半教師付き設計である。
論文 参考訳(メタデータ) (2025-05-09T11:34:07Z) - Graph-based Diffusion Model for Collaborative Filtering [10.654721251152187]
協調フィルタリングのためのグラフベース拡散モデル(GDMCF)を提案する。
GDMCFは最先端の手法を一貫して上回り、高次協調信号のキャプチャの有効性を強調している。
論文 参考訳(メタデータ) (2025-04-07T12:51:18Z) - Combating Bilateral Edge Noise for Robust Link Prediction [56.43882298843564]
本稿では,RGIB(Robust Graph Information Bottleneck)という情報理論の原則を提案し,信頼性の高い監視信号を抽出し,表現の崩壊を回避する。
RGIB-SSLとRGIB-REPの2つのインスタンス化は、異なる手法の利点を活用するために検討されている。
6つのデータセットと3つのGNNの様々なノイズシナリオによる実験は、我々のRGIBインスタンスの有効性を検証する。
論文 参考訳(メタデータ) (2023-11-02T12:47:49Z) - Hypergraph Contrastive Collaborative Filtering [44.8586906335262]
新たな自己監督型推薦フレームワークHypergraph Contrastive Collaborative Filtering (HCCF)を提案する。
HCCFは、ハイパーグラフを拡張したクロスビューコントラスト学習アーキテクチャと、ローカルおよびグローバルなコラボレーティブな関係をキャプチャする。
提案モデルでは,ハイパーグラフ構造と自己教師付き学習を効果的に統合し,レコメンダシステムの表現品質を向上する。
論文 参考訳(メタデータ) (2022-04-26T10:06:04Z) - Deep Equilibrium Assisted Block Sparse Coding of Inter-dependent
Signals: Application to Hyperspectral Imaging [71.57324258813675]
相互依存信号のデータセットは、列が強い依存を示す行列として定義される。
ニューラルネットワークは、事前に構造として機能し、基礎となる信号相互依存性を明らかにするために使用される。
ディープ・アンローリングとディープ・平衡に基づくアルゴリズムが開発され、高度に解釈可能で簡潔なディープ・ラーニング・ベース・アーキテクチャを形成する。
論文 参考訳(メタデータ) (2022-03-29T21:00:39Z) - Towards Robust and Adaptive Motion Forecasting: A Causal Representation
Perspective [72.55093886515824]
本稿では,3つの潜伏変数群からなる動的過程として,運動予測の因果的形式化を導入する。
我々は、因果グラフを近似するために、不変なメカニズムやスタイルの共創者の表現を分解するモジュラーアーキテクチャを考案する。
合成および実データを用いた実験結果から,提案した3つの成分は,学習した動き表現の頑健性と再利用性を大幅に向上することが示された。
論文 参考訳(メタデータ) (2021-11-29T18:59:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。