論文の概要: MTFM: A Scalable and Alignment-free Foundation Model for Industrial Recommendation in Meituan
- arxiv url: http://arxiv.org/abs/2602.11235v2
- Date: Fri, 13 Feb 2026 09:38:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 15:25:03.332032
- Title: MTFM: A Scalable and Alignment-free Foundation Model for Industrial Recommendation in Meituan
- Title(参考訳): MTFM:メキシコにおける産業推薦のためのスケーラブルでアライメントのない基礎モデル
- Authors: Xin Song, Zhilin Guan, Ruidong Han, Binghao Tang, Tianwen Chen, Bing Li, Zihao Li, Han Zhang, Fei Jiang, Qing Wang, Zikang Xu, Fengyi Li, Chunzhen Jing, Lei Yu, Wei Lin,
- Abstract要約: MTFM(Meituan Foundation Model for Recommendation)は,これらの課題に対処するトランスフォーマーベースのフレームワークである。
MTFMは入力を事前に調整する代わりに、クロスドメインデータを異質なトークンに変換し、アライメントのない方法でマルチシナリオの知識をキャプチャする。
- 参考スコア(独自算出の注目度): 28.96814648857816
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Industrial recommendation systems typically involve multiple scenarios, yet existing cross-domain (CDR) and multi-scenario (MSR) methods often require prohibitive resources and strict input alignment, limiting their extensibility. We propose MTFM (Meituan Foundation Model for Recommendation), a transformer-based framework that addresses these challenges. Instead of pre-aligning inputs, MTFM transforms cross-domain data into heterogeneous tokens, capturing multi-scenario knowledge in an alignment-free manner. To enhance efficiency, we first introduce a multi-scenario user-level sample aggregation that significantly enhances training throughput by reducing the total number of instances. We further integrate Grouped-Query Attention and a customized Hybrid Target Attention to minimize memory usage and computational complexity. Furthermore, we implement various system-level optimizations, such as kernel fusion and the elimination of CPU-GPU blocking, to further enhance both training and inference throughput. Offline and online experiments validate the effectiveness of MTFM, demonstrating that significant performance gains are achieved by scaling both model capacity and multi-scenario training data.
- Abstract(参考訳): 産業レコメンデーションシステムは通常、複数のシナリオを含むが、既存のクロスドメイン(CDR)とマルチシナリオ(MSR)メソッドは、しばしば禁止的なリソースと厳格な入力アライメントを必要とし、拡張性を制限する。
MTFM(Meituan Foundation Model for Recommendation)は,これらの課題に対処するトランスフォーマーベースのフレームワークである。
MTFMは入力を事前に調整する代わりに、クロスドメインデータを異質なトークンに変換し、アライメントのない方法でマルチシナリオの知識をキャプチャする。
効率を向上させるために,まず,複数シナリオのユーザレベルのサンプルアグリゲーションを導入し,インスタンスの総数を減らし,トレーニングのスループットを大幅に向上させた。
さらに、メモリ使用量と計算複雑性を最小限に抑えるために、Grouped-Query AttentionとカスタマイズされたHybrid Target Attentionを統合します。
さらに,カーネル融合やCPU-GPUブロッキングの排除など,さまざまなシステムレベルの最適化を実装し,トレーニングと推論のスループットをさらに向上させる。
オフラインおよびオンライン実験はMTFMの有効性を検証し、モデルキャパシティとマルチシナリオトレーニングデータのスケーリングによって大きなパフォーマンス向上が達成されることを示した。
関連論文リスト
- FindRec: Stein-Guided Entropic Flow for Multi-Modal Sequential Recommendation [57.577843653775]
textbfFindRec (textbfFlexible unified textbfinformation textbfdisentanglement for multi-modal sequence textbfRecommendation)を提案する。
Stein kernel-based Integrated Information Coordination Module (IICM) は理論上、マルチモーダル特徴とIDストリーム間の分散一貫性を保証する。
マルチモーダル特徴を文脈的関連性に基づいて適応的にフィルタリング・結合するクロスモーダル・エキスパート・ルーティング機構。
論文 参考訳(メタデータ) (2025-07-07T04:09:45Z) - Task-Oriented Multimodal Token Transmission in Resource-Constrained Multiuser Networks [19.42660454288912]
本稿では,効率的なマルチモーダル情報融合と利用のためのタスク指向マルチモーダルトークン伝送方式を提案する。
トークン伝送の効率を向上させるため,クロスモーダルアライメントやタスク指向微調整を含む2段階トレーニングアルゴリズムを設計した。
我々は、交互最適化手法を用いて、ユーザ間での帯域幅、電力割り当て、トークン長を共同で最適化する。
論文 参考訳(メタデータ) (2025-05-06T14:17:05Z) - Single Domain Generalization with Model-aware Parametric Batch-wise Mixup [22.709796153794507]
単一ドメインの一般化は、マシンラーニングの分野において、依然として深刻な課題である。
本稿では,モデル認識型パラメトリックバッチ・ワイド・ミックスアップ(Parametric Batch-wise Mixup)と呼ばれる新しいデータ拡張手法を提案する。
機能間相関を利用することで、パラメータ化されたミックスアップジェネレータは、複数のインスタンスにまたがる機能の組み合わせにおいて、さらなる汎用性を導入する。
論文 参考訳(メタデータ) (2025-02-22T03:45:18Z) - Multi-task Domain Adaptation for Computation Offloading in Edge-intelligence Networks [34.934911340540545]
本稿では,MTDA(Multi-Task Domain Adaptation)と呼ばれる新しいアプローチを提案する。
提案したMTDAモデルには,推論時にソースドメインデータへのアクセスを必要とせずに継続的適応が可能な教師学生アーキテクチャが組み込まれている。
提案するMTDAモデルは様々なシナリオで高い性能を維持しており,新興MECアプリケーションへの実用的な展開の可能性を示している。
論文 参考訳(メタデータ) (2025-01-02T13:20:29Z) - Prioritizing Modalities: Flexible Importance Scheduling in Federated Multimodal Learning [5.421492821020181]
Federated Learning(FL)は、デバイスがローカルデータを共有せずにモデルを協調的にトレーニングできる分散機械学習アプローチである。
FLを実世界のデータに適用することは、特に既存のFL研究が不正なデータに焦点を当てているため、課題を提示している。
我々は,各モードエンコーダのトレーニングリソースを適応的に割り当てることで,MFLにおける計算効率を向上させる新しい手法FlexModを提案する。
論文 参考訳(メタデータ) (2024-08-13T01:14:27Z) - Investigating the potential of Sparse Mixtures-of-Experts for multi-domain neural machine translation [59.41178047749177]
トレーニング中に見られるさまざまなドメインのデータを扱うことができ、トレーニング中に見つからないドメインに対して堅牢な効率的なモデルを開発することを目的として、マルチドメインニューラルネットワーク翻訳に重点を置いている。
SMOE(Sparse Mixture-of-Experts)モデルは、効率的なモデルスケーリングを可能にするため、このタスクに適していると仮定する。
マルチドメインシナリオにおけるSMoEの有用性を検証するための一連の実験を行い、Transformerの簡単な幅スケーリングは、実際はよりシンプルで驚くほど効率的なアプローチであり、SMoEと同等の性能レベルに達することを発見した。
論文 参考訳(メタデータ) (2024-07-01T09:45:22Z) - Retentive Decision Transformer with Adaptive Masking for Reinforcement Learning based Recommendation Systems [17.750449033873036]
Reinforcement Learning-based Recommender Systems (RLRS) は、様々なアプリケーションで約束されている。
しかし彼らは、特に報酬関数の作成や、既存の大規模なデータセットの活用など、課題に悩まされている。
オフラインRLRSの最近の進歩は、これらの2つの課題に対処するためのソリューションを提供する。
論文 参考訳(メタデータ) (2024-03-26T12:08:58Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。