論文の概要: MUSE: Multi-Tenant Model Serving With Seamless Model Updates
- arxiv url: http://arxiv.org/abs/2602.11776v1
- Date: Thu, 12 Feb 2026 09:54:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.757134
- Title: MUSE: Multi-Tenant Model Serving With Seamless Model Updates
- Title(参考訳): MUSE:Seamless Modelのアップデートでマルチテナントモデルが実現
- Authors: Cláudio Correia, Alberto E. A. Ferreira, Lucas Martins, Miguel P. Bento, Sofia Guerreiro, Ricardo Ribeiro Pereira, Ana Sofia Gomes, Jacopo Bono, Hugo Ferreira, Pedro Bizarro,
- Abstract要約: MUSEは、モデルのスコアをクライアントの意思決定境界から切り離すことで、シームレスなモデル更新を可能にする。
MUSEは毎秒1000以上のイベントを処理し、過去12ヶ月で5500億以上のイベントを処理している。
- 参考スコア(独自算出の注目度): 5.4431781060518425
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In binary classification systems, decision thresholds translate model scores into actions. Choosing suitable thresholds relies on the specific distribution of the underlying model scores but also on the specific business decisions of each client using that model. However, retraining models inevitably shifts score distributions, invalidating existing thresholds. In multi-tenant Score-as-a-Service environments, where decision boundaries reside in client-managed infrastructure, this creates a severe bottleneck: recalibration requires coordinating threshold updates across hundreds of clients, consuming excessive human hours and leading to model stagnation. We introduce MUSE, a model serving framework that enables seamless model updates by decoupling model scores from client decision boundaries. Designed for multi-tenancy, MUSE optimizes infrastructure re-use by sharing models via dynamic intent-based routing, combined with a two-level score transformation that maps model outputs to a stable, reference distribution. Deployed at scale by Feedzai, MUSE processes over a thousand events per second, and over 55 billion events in the last 12 months, across several dozens of tenants, while maintaining high-availability and low-latency guarantees. By reducing model lead time from weeks to minutes, MUSE promotes model resilience against shifting attacks, saving millions of dollars in fraud losses and operational costs.
- Abstract(参考訳): 二項分類システムでは、決定しきい値がモデルのスコアをアクションに変換する。
適切なしきい値を選択するには、基礎となるモデルスコアの特定の分布だけでなく、そのモデルを使用して各クライアントの特定のビジネス判断にも依存します。
しかし、再トレーニングモデルは必然的にスコア分布をシフトし、既存の閾値を無効にする。
クライアント管理されたインフラストラクチャに意思決定境界があるマルチテナントScore-as-a-Service環境では、これは深刻なボトルネックを生み出します。
MUSEは、モデルスコアをクライアントの意思決定境界から切り離すことでシームレスなモデル更新を可能にするモデルサービスフレームワークである。
マルチテナンシ用に設計されたMUSEは、動的インテントベースのルーティングによるモデル共有によるインフラストラクチャ再利用を最適化し、モデル出力を安定した参照分布にマップする2段階のスコア変換と組み合わせる。
Feedzaiによって大規模にデプロイされたMUSEは、毎秒1000イベント以上、過去12ヶ月で5500億イベント以上を処理し、数十のテナントにわたって、高可用性と低レイテンシの保証を維持している。
モデルリード時間を数週間から数分に短縮することで、MUSEは変更攻撃に対するモデルレジリエンスを促進し、不正な損失と運用コストを数百万ドル削減する。
関連論文リスト
- FedRef: Communication-Efficient Bayesian Fine-Tuning using a Reference Model [0.7100520098029438]
フェデレーション学習(FL)は、人工知能(AI)モデルを協調的にトレーニングし、ユーザのデータのプライバシを保証する。
従来の研究では、モデル性能を向上させるためにモデル最適化、微調整、パーソナライゼーションが提案されている。
本稿では,各ラウンドにおける破滅的忘れを克服するフェデレーション学習のための参照モデルに基づくファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2025-06-29T12:41:11Z) - FedMerge: Federated Personalization via Model Merging [51.12769696559237]
1つのグローバルモデルでは、非IIDタスクや分散を多くのクライアントに提供するには不十分かもしれない。
我々は、複数のグローバルモデルをマージするだけで、クライアントごとにパーソナライズされたモデルを作成することができる新しいFedMergeのアプローチを提案する。
我々はFedMergeを、さまざまなタスクとデータタイプを持つ異なるドメインに適用した3つの異なる非IID設定で評価する。
論文 参考訳(メタデータ) (2025-04-09T10:44:14Z) - Revisiting SMoE Language Models by Evaluating Inefficiencies with Task Specific Expert Pruning [78.72226641279863]
SMOE(Sparse Mixture of Expert)モデルは、言語モデリングにおける高密度モデルに代わるスケーラブルな代替品として登場した。
本研究は,SMoEアーキテクチャの設計に関する意思決定を行うために,タスク固有のモデルプルーニングについて検討する。
適応型タスク対応プルーニング手法 UNCURL を導入し,MoE 層当たりの専門家数をオフラインで学習する手法を提案する。
論文 参考訳(メタデータ) (2024-09-02T22:35:03Z) - Towards Client Driven Federated Learning [7.528642177161784]
私たちは、クライアントを駆動する新しいFLフレームワークであるクライアント駆動フェデレートラーニング(CDFL:Client-Driven Federated Learning)を紹介します。
CDFLでは、各クライアントは、ローカルにトレーニングされたモデルをサーバにアップロードし、ローカルタスクに合わせてカスタマイズされたモデルを受け取ることで、独立して非同期にモデルを更新する。
論文 参考訳(メタデータ) (2024-05-24T10:17:49Z) - EMR-Merging: Tuning-Free High-Performance Model Merging [55.03509900949149]
Elect, Mask & Rescale-Merging (EMR-Merging) は既存のマージ手法と比較して優れた性能を示した。
EMR-Mergingはチューニング不要なので、データアベイラビリティや追加のトレーニングは必要ありません。
論文 参考訳(メタデータ) (2024-05-23T05:25:45Z) - One-Shot Heterogeneous Federated Learning with Local Model-Guided Diffusion Models [40.83058938096914]
FedLMGは局所モデル誘導拡散モデルを用いた単発フェデレーション学習法である。
クライアントはファンデーションモデルにアクセスする必要はなく、ローカルモデルのトレーニングとアップロードのみを行う。
論文 参考訳(メタデータ) (2023-11-15T11:11:25Z) - Federated Topic Model and Model Pruning Based on Variational Autoencoder [14.737942599204064]
フェデレートされたトピックモデリングにより、複数のパーティがデータのプライバシを保護しながらモデルを共同でトレーニングできる。
本稿では,各ノードのプライバシを確保しつつ,フェデレートされたトピックモデルを確立する手法を提案し,ニューラルネットワークモデルプルーニングを用いてモデルを高速化する。
実験結果から,フェデレートされたトピックモデルプルーニングは,モデルの性能を確保しつつ,モデルのトレーニング速度を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2023-11-01T06:00:14Z) - Billion-user Customer Lifetime Value Prediction: An Industrial-scale
Solution from Kuaishou [19.31651596803956]
顧客ライフタイムバリュー(英:Customer Life Time Value、LTV)は、単一のユーザがビジネスにもたらすことができる総収入である。
LTVのモデリングは、複雑で変更可能なデータ分散のため、難しい問題である。
我々は、異なる時間帯のLTV間の順序依存をモデル化する秩序依存モノトニックネットワーク(ODMN)を導入する。
論文 参考訳(メタデータ) (2022-08-29T04:05:21Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - A Bayesian Federated Learning Framework with Online Laplace
Approximation [144.7345013348257]
フェデレートラーニングは、複数のクライアントが協力してグローバルに共有されたモデルを学ぶことを可能にする。
クライアント側とサーバ側の両方の後方部を近似するために,オンラインラプラス近似を用いた新しいFLフレームワークを提案する。
提案手法の利点を実証し,いくつかのベンチマークで最新の結果を得た。
論文 参考訳(メタデータ) (2021-02-03T08:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。