論文の概要: SCaLRec: Semantic Calibration for LLM-enabled Cloud-Device Sequential Recommendation
- arxiv url: http://arxiv.org/abs/2601.22543v1
- Date: Fri, 30 Jan 2026 04:28:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.220686
- Title: SCaLRec: Semantic Calibration for LLM-enabled Cloud-Device Sequential Recommendation
- Title(参考訳): SCaLRec: LLM対応クラウドデバイスシークエンシャルレコメンデーションのためのセマンティックキャリブレーション
- Authors: Ruiqi Zheng, Jinli Cao, Jiao Yin, Hongzhi Yin,
- Abstract要約: LLM対応クラウド・デバイス・レコメンデーション(SCaLRec)について紹介する。
SCaLRecは、ユーザの最新のインタラクションの下でキャッシュされたセマンティクスの信頼性を推定する。
実世界のデータセットでの実験では、SCaLRecは、クラウドセマンティックの安定性の下で、強いベースラインよりも推奨性能を一貫して改善している。
- 参考スコア(独自算出の注目度): 28.131961539123754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cloud-device collaborative recommendation partitions computation across the cloud and user devices: the cloud provides semantic user modeling, while the device leverages recent interactions and cloud semantic signals for privacy-preserving, responsive reranking. With large language models (LLMs) on the cloud, semantic user representations can improve sequential recommendation by capturing high-level intent. However, regenerating such representations via cloud LLM inference for every request is often infeasible at real-world scale. As a result, on-device reranking commonly reuses a cached cloud semantic user embedding across requests. We empirically identify a cloud semantic staleness effect: reused embeddings become less aligned with the user's latest interactions, leading to measurable ranking degradation. Most existing LLM-enabled cloud-device recommenders are typically designed around on-demand cloud semantics, either by assuming low-latency cloud LLM access or by regenerating semantic embeddings per request. When per-request regeneration is infeasible and cached semantics must be reused, two technical challenges arise: (1) deciding when cached cloud semantics remain useful for on-device reranking, and (2) maintaining ranking quality when the cloud LLM cannot be invoked and only cached semantics are available. To address this gap, we introduce the Semantic Calibration for LLM-enabled Cloud-Device Recommendation (SCaLRec). First, it estimates the reliability of cached semantics under the user's latest interactions. Second, an on-device semantic calibration module is proposed to adjusts the cached semantic embedding on-device using up-to-date interaction evidence, without per-request cloud LLM involvement. Experiments on real-world datasets show that SCaLRec consistently improves recommendation performance over strong baselines under cloud semantic staleness.
- Abstract(参考訳): クラウドはセマンティックユーザモデリングを提供し、デバイスは最近のインタラクションとクラウドセマンティックシグナルを活用して、プライバシ保護と応答性の向上を実現している。
クラウド上の大きな言語モデル(LLM)によって、セマンティックなユーザ表現は、高レベルのインテントをキャプチャすることで、シーケンシャルなレコメンデーションを改善することができる。
しかし、クラウド LLM による全ての要求に対する表現を再現することは、現実のスケールでは不可能であることが多い。
その結果、オンデバイスでは、要求にまたがるキャッシュされたクラウドセマンティックユーザを一般的に再利用する。
クラウドセマンティクスの安定化効果を実証的に識別する: 再利用された埋め込みはユーザの最新のインタラクションとの整合性が低くなり、測定可能なランキングの劣化につながる。
既存のLLM対応クラウドデバイスレコメンデータは、低レイテンシのクラウドLLMアクセスを仮定するか、要求毎にセマンティック埋め込みを再生することによって、オンデマンドのクラウドセマンティクスを中心に設計されている。
1) キャッシュされたクラウドセマンティクスがデバイス上のリグレードに有用であるかどうかを決定すること、2) クラウド LLM が起動できず、キャッシュされたセマンティクスのみが利用できる場合のランキング品質を維持すること、である。
このギャップに対処するために,LLM対応クラウド・デバイス・レコメンデーション(SCaLRec)のセマンティック・キャリブレーションを導入する。
まず、ユーザの最新のインタラクションの下でキャッシュされたセマンティクスの信頼性を推定する。
第二に、オンデバイスセマンティックキャリブレーションモジュールが提案され、最新のインタラクションエビデンスを使用してデバイス上にキャッシュされたセマンティック埋め込みを調整する。
実世界のデータセットでの実験では、SCaLRecは、クラウドセマンティックの安定性の下で、強いベースラインよりも推奨性能を一貫して改善している。
関連論文リスト
- Cloud-Device Collaborative Agents for Sequential Recommendation [36.05863003744828]
大規模言語モデル(LLM)は、強力な意味理解と柔軟な推論機能を備えたエージェントベースのレコメンデーションシステムを実現している。
LLMは強力なパーソナライズを提供するが、プライバシの懸念やリアルタイム信号へのアクセス制限、スケーラビリティのボトルネックに悩まされることが多い。
本稿では,2つのエージェントを駆使したシーケンシャルレコメンデーションのための新しいクラウド・デバイス協調フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-01T15:28:11Z) - EC-Diff: Fast and High-Quality Edge-Cloud Collaborative Inference for Diffusion Models [57.059991285047296]
高速な推論と高品質な生成を実現するために,ハイブリッドエッジクラウドコラボレーションフレームワークが最近提案されている。
過度の雲が推論時間を延ばす一方、不十分なステップは意味的な曖昧さを引き起こし、エッジモデルの出力の不整合を引き起こす。
勾配に基づく雑音推定により雲の推測を高速化するEC-Diffを提案する。
提案手法は, エッジ推定に比べて生成品質を著しく向上する一方で, クラウド推定に比べて平均2倍の速度アップを達成できる。
論文 参考訳(メタデータ) (2025-07-16T07:23:14Z) - LSRP: A Leader-Subordinate Retrieval Framework for Privacy-Preserving Cloud-Device Collaboration [43.115594451678255]
クラウドとデバイス間のコラボレーションは、公開ユーザクエリの処理にオンプレミスのLarge Language Models(LLM)、プライベートユーザデータの処理にSLM(On-device Small Language Models)を活用する。
既存のアプローチは、クラウド上のLLMのスケーラブルな問題解決能力を十分に活用できないことが多い。
プライバシ保護型クラウドデバイスコラボレーション(LSRP)のためのリーダ・サブオーディネート検索フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-08T08:06:34Z) - A Novel Hat-Shaped Device-Cloud Collaborative Inference Framework for Large Language Models [12.644230479753476]
従来のクラウドベースの大規模言語モデル(LLM)は、高精度な要件を満たすが、低遅延とプライバシー強化に対する重要な要求には欠ける。
我々は,U字型推論と投機的復号化の相補的長所を生かした,新しいデバイス-クラウド協調型推論フレームワークであるHATを提案する。
HATは,TTFTを41%,TBTを41%,TBTを77%削減し,有望な性能向上を実現していることを示す。
論文 参考訳(メタデータ) (2025-03-23T10:54:58Z) - CE-CoLLM: Efficient and Adaptive Large Language Models Through Cloud-Edge Collaboration [1.6021932740447968]
大型言語モデル(LLM)は、人間のような優れた予測能力を示す。
LLMをデプロイして、エッジで効率的かつ適応的な推論サービスを提供するのは難しい。
本稿では,これらの課題に対処するために,LLM(CE-CoLLM)のための新しいクラウドエッジコラボレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-05T06:00:27Z) - Towards Robust and Efficient Cloud-Edge Elastic Model Adaptation via Selective Entropy Distillation [56.79064699832383]
Cloud-Edge Elastic Model Adaptation (CEMA)パラダイムを確立し、エッジモデルが前方伝播のみを実行するようにします。
CEMAでは,通信負担を軽減するため,不要なサンプルをクラウドにアップロードすることを避けるための2つの基準を考案した。
論文 参考訳(メタデータ) (2024-02-27T08:47:19Z) - CloudEval-YAML: A Practical Benchmark for Cloud Configuration Generation [9.320732264679238]
クラウド構成生成のための実用的なベンチマークであるCloudEval-YAMLを提案する。
データセットは、実践シナリオをターゲットにした単体テストに関する手書きの問題で構成されている。
データセットは、1200時間以上かかる1011の問題で構成されている。
論文 参考訳(メタデータ) (2023-11-10T01:49:57Z) - Intelligent Model Update Strategy for Sequential Recommendation [34.02565495747133]
我々はIntellectReqを紹介した。IntellectReqはエッジで動作するように設計されており、最小の通信オーバーヘッドでパラメータ要求のコスト対効果を評価できる。
本研究では,実時間ユーザ動作を正規分布に変換するために統計マッピング手法を用い,モデルの不確実性を定量化するためにマルチサンプル出力を用いる。
論文 参考訳(メタデータ) (2023-02-14T20:44:12Z) - DUET: A Tuning-Free Device-Cloud Collaborative Parameters Generation Framework for Efficient Device Model Generalization [66.27399823422665]
デバイスモデル一般化(Device Model Generalization, DMG)は、デバイス上での機械学習アプリケーションにおいて、実用的ながら実証されていない研究トピックである。
本稿では,Device-cloUdコラボレーティブパラメトリクスフレームワークDUETを提案する。
論文 参考訳(メタデータ) (2022-09-12T13:26:26Z) - Device-Cloud Collaborative Recommendation via Meta Controller [65.97416287295152]
オンデバイスレコメンデータとクラウドベースのレコメンデータの協調を動的に管理するメタコントローラを提案する。
対策サンプルと拡張トレーニングに基づいて,産業レコメンデーションシナリオにおける広範な実験は,メタコントローラの可能性を示唆している。
論文 参考訳(メタデータ) (2022-07-07T03:23:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。