論文の概要: WeiPS: a symmetric fusion model framework for large-scale online
learning
- arxiv url: http://arxiv.org/abs/2011.11983v1
- Date: Tue, 24 Nov 2020 09:25:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 13:45:16.607574
- Title: WeiPS: a symmetric fusion model framework for large-scale online
learning
- Title(参考訳): WeiPS:大規模オンライン学習のための対称融合モデルフレームワーク
- Authors: Xiang Yu, Fuping Chu, Junqi Wu, Bo Huang
- Abstract要約: モデルトレーニングとモデル推論を統合した、WeiPSと呼ばれる対称融合オンライン学習システムフレームワークを提案する。
具体的には、一貫性要件を満たすために、ストリーミング更新メカニズムによる第2レベルのモデルデプロイメントを実行する。
マルチレベルのフォールトトレランスとリアルタイムドミノ劣化を使用して高可用性要求を実現する。
- 参考スコア(独自算出の注目度): 6.88870384575896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recommendation system is an important commercial application of machine
learning, where billions of feed views in the information flow every day. In
reality, the interaction between user and item usually makes user's interest
changing over time, thus many companies (e.g. ByteDance, Baidu, Alibaba, and
Weibo) employ online learning as an effective way to quickly capture user
interests. However, hundreds of billions of model parameters present online
learning with challenges for real-time model deployment. Besides, model
stability is another key point for online learning. To this end, we design and
implement a symmetric fusion online learning system framework called WeiPS,
which integrates model training and model inference. Specifically, WeiPS
carries out second level model deployment by streaming update mechanism to
satisfy the consistency requirement. Moreover, it uses multi-level fault
tolerance and real-time domino degradation to achieve high availability
requirement.
- Abstract(参考訳): このレコメンデーションシステムは、毎日何十億というフィードビューが情報フローに含まれる機械学習の重要な商用アプリケーションである。
実際、ユーザーとアイテムのやりとりはユーザーの興味を時間とともに変化させるので、多くの企業(例えば、bytedance、baidu、alibaba、weibo)はオンライン学習をユーザーの興味を素早く捉える効果的な方法として採用している。
しかし、数十億のモデルパラメータがオンライン学習をもたらし、リアルタイムモデルデプロイメントの課題も抱えている。
さらに、モデルの安定性もオンライン学習の重要なポイントです。
この目的のために,モデルトレーニングとモデル推論を統合した対称型統合型オンライン学習システムフレームワークweipsを設計し,実装する。
具体的には、一貫性要件を満たすために、ストリーミング更新メカニズムによる第2レベルのモデルデプロイメントを実行する。
さらに,高可用性要求を実現するために,マルチレベル耐障害性とリアルタイムドミノ劣化を利用する。
関連論文リスト
- Online-BLS: An Accurate and Efficient Online Broad Learning System for Data Stream Classification [52.251569042852815]
オンライン更新毎にクローズドフォームソリューションを備えたオンライン広範学習システムフレームワークを導入する。
我々は,効果的な重み推定アルゴリズムと効率的なオンライン更新戦略を設計する。
我々のフレームワークは、コンセプトドリフトを伴うデータストリームシナリオに自然に拡張され、最先端のベースラインを超えます。
論文 参考訳(メタデータ) (2025-01-28T13:21:59Z) - MetaTrading: An Immersion-Aware Model Trading Framework for Vehicular Metaverse Services [94.61039892220037]
本稿では,車載メタバースにおける拡張現実(AR)サービスの学習モデルを支援するために,メタバースユーザ(MU)にインセンティブを与える新しい没入型モデルトレーディングフレームワークを提案する。
動的ネットワーク条件とプライバシの懸念を考慮して、マルチエージェントマルコフ決定プロセスとしてMSPの報酬決定を定式化する。
実験により,提案フレームワークは,実AR関連車両データセット上でのARサービスにおいて,オブジェクト検出と分類のための高価値モデルを効果的に提供できることが示されている。
論文 参考訳(メタデータ) (2024-10-25T16:20:46Z) - Do Not Wait: Learning Re-Ranking Model Without User Feedback At Serving Time in E-Commerce [16.316227411757797]
本稿では,LASTというオンライン学習手法を新たに拡張したモデリング手法を提案する。
代理モデルを用いて、モデル改善を操縦するために必要な指導信号を提供することにより、ユーザフィードバックの要求を回避する。
LASTは既存のオンライン学習システムにシームレスに統合され、より適応的でレスポンシブなレコメンデーションエクスペリエンスを作成することができる。
論文 参考訳(メタデータ) (2024-06-20T05:15:48Z) - Update Selective Parameters: Federated Machine Unlearning Based on Model Explanation [46.86767774669831]
モデル説明の概念に基づく、より効率的で効率的なフェデレーション・アンラーニング・スキームを提案する。
我々は、未学習のデータに対して、すでに訓練済みのモデルの中で最も影響力のあるチャネルを選択します。
論文 参考訳(メタデータ) (2024-06-18T11:43:20Z) - DiffMM: Multi-Modal Diffusion Model for Recommendation [19.43775593283657]
DiffMMと呼ばれる新しいマルチモーダルグラフ拡散モデルを提案する。
本フレームワークは,モダリティを意識したグラフ拡散モデルとクロスモーダルコントラスト学習パラダイムを統合し,モダリティを意識したユーザ表現学習を改善する。
論文 参考訳(メタデータ) (2024-06-17T17:35:54Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - OneNet: Enhancing Time Series Forecasting Models under Concept Drift by
Online Ensembling [65.93805881841119]
ドリフト問題に対処するため,textbfOnline textbfensembling textbfNetwork (OneNet)を提案する。
OneNet は State-Of-The-Art (SOTA) 法と比較してオンライン予測エラーを $mathbf50%$ 以上削減する。
論文 参考訳(メタデータ) (2023-09-22T06:59:14Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Incremental Learning for Personalized Recommender Systems [8.020546404087922]
トレーニング効率とモデル品質の両方を提供するために,インクリメンタルな学習ソリューションを提案する。
このソリューションはLinkedInにデプロイされ、産業規模のレコメンデーションシステムに直接適用される。
論文 参考訳(メタデータ) (2021-08-13T04:21:21Z) - Lambda Learner: Fast Incremental Learning on Data Streams [5.543723668681475]
本稿では,データストリームからのミニバッチに対するインクリメンタル更新によるモデルトレーニングのための新しいフレームワークを提案する。
提案するフレームワークのモデルでは,オフラインデータに基づいてトレーニングされた周期的に更新されたモデルを推定し,モデル更新が時間に敏感な場合,性能が向上することを示す。
我々は、大規模ソーシャルネットワークのためのスポンサー付きコンテンツプラットフォームに大規模な展開を提示する。
論文 参考訳(メタデータ) (2020-10-11T04:00:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。