論文の概要: LiMAML: Personalization of Deep Recommender Models via Meta Learning
- arxiv url: http://arxiv.org/abs/2403.00803v1
- Date: Fri, 23 Feb 2024 22:06:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-10 23:58:50.741596
- Title: LiMAML: Personalization of Deep Recommender Models via Meta Learning
- Title(参考訳): limaml: メタ学習による深層推薦モデルのパーソナライズ
- Authors: Ruofan Wang, Prakruthi Prabhakar, Gaurav Srivastava, Tianqi Wang,
Zeinab S. Jalali, Varun Bharill, Yunbo Ouyang, Aastha Nigam, Divya
Venugopalan, Aman Gupta, Fedor Borisyuk, Sathiya Keerthi, Ajith Muralidharan
- Abstract要約: 我々は、個人メンバーや他のエンティティのためのモデルのパーソナライズに適した革新的なメタラーニングソリューションを導入する。
モデル非依存メタラーニング(MAML)アルゴリズムを用いて,最近のユーザインタラクションデータを用いて,タスクごとのサブネットワークを適応する。
私たちのアプローチは、さまざまなLinkedInアプリケーションにまたがる、高度にパーソナライズされたAIモデルのデプロイを可能にしました。
- 参考スコア(独自算出の注目度): 13.69036196446634
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the realm of recommender systems, the ubiquitous adoption of deep neural
networks has emerged as a dominant paradigm for modeling diverse business
objectives. As user bases continue to expand, the necessity of personalization
and frequent model updates have assumed paramount significance to ensure the
delivery of relevant and refreshed experiences to a diverse array of members.
In this work, we introduce an innovative meta-learning solution tailored to the
personalization of models for individual members and other entities, coupled
with the frequent updates based on the latest user interaction signals.
Specifically, we leverage the Model-Agnostic Meta Learning (MAML) algorithm to
adapt per-task sub-networks using recent user interaction data. Given the near
infeasibility of productionizing original MAML-based models in online
recommendation systems, we propose an efficient strategy to operationalize
meta-learned sub-networks in production, which involves transforming them into
fixed-sized vectors, termed meta embeddings, thereby enabling the seamless
deployment of models with hundreds of billions of parameters for online
serving. Through extensive experimentation on production data drawn from
various applications at LinkedIn, we demonstrate that the proposed solution
consistently outperforms the baseline models of those applications, including
strong baselines such as using wide-and-deep ID based personalization approach.
Our approach has enabled the deployment of a range of highly personalized AI
models across diverse LinkedIn applications, leading to substantial
improvements in business metrics as well as refreshed experience for our
members.
- Abstract(参考訳): 推薦システムの領域では、さまざまなビジネス目的をモデル化するための支配的なパラダイムとして、ディープニューラルネットワークがユビキタスに採用されている。
ユーザベースが拡大を続けるにつれ、パーソナライゼーションの必要性と頻繁なモデル更新が重要視され、さまざまなメンバに関連し、リフレッシュされたエクスペリエンスが配信されるようになる。
そこで本研究では,個人や他のエンティティのモデルのパーソナライズに合わせた革新的なメタラーニングソリューションと,最新のユーザインタラクション信号に基づく頻繁な更新について紹介する。
具体的には、モデル非依存メタ学習(maml)アルゴリズムを利用して、最近のユーザインタラクションデータを用いてタスク単位のサブネットワークに適応する。
オンラインレコメンデーションシステムにおいて、オリジナルのMAMLベースのモデルを生産することのほぼ不可能さを考慮して、我々は、メタ学習サブネットワークを本番環境で運用する効率的な戦略を提案し、それらが固定サイズのベクトルに変換され、メタ埋め込みと呼ばれ、オンラインサービスのための数十億のパラメータを持つモデルのシームレスなデプロイを可能にする。
LinkedInのさまざまなアプリケーションから得られた生産データに関する広範な実験を通じて、提案手法は、広義のIDベースのパーソナライゼーションアプローチなどの強力なベースラインを含む、それらのアプリケーションのベースラインモデルよりも一貫して優れていることを示す。
私たちのアプローチは、さまざまなlinkedinアプリケーションにわたって、高度にパーソナライズされたaiモデルのデプロイを可能にしました。
関連論文リスト
- Model Composition for Multimodal Large Language Models [73.70317850267149]
本稿では,既存のMLLMのモデル構成による新しいパラダイムを提案する。
我々の基本的な実装であるNaiveMCは、モダリティエンコーダを再利用し、LLMパラメータをマージすることで、このパラダイムの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-20T06:38:10Z) - 3FM: Multi-modal Meta-learning for Federated Tasks [2.117841684082203]
マルチモーダルなフェデレーションタスクに特化して設計されたメタラーニングフレームワークを提案する。
当社のアプローチは,新たなモダリティに曝露した場合に,フェデレーションモデルによる堅牢な適応を可能にする必要性に起因している。
提案アルゴリズムは,欠落したモダリティシナリオのサブセットにおいて,ベースラインよりも優れた性能を実現することを示す。
論文 参考訳(メタデータ) (2023-12-15T20:03:24Z) - Scaling User Modeling: Large-scale Online User Representations for Ads
Personalization in Meta [26.379183885464748]
Scaling User Modeling (SUM)はMetaの広告ランキングシステムに広くデプロイされているフレームワークである。
これまでSUMはMetaの数百の広告ランキングモデルでローンチされ、毎日数十億のユーザーリクエストを処理する。
論文 参考訳(メタデータ) (2023-11-16T03:47:48Z) - On the steerability of large language models toward data-driven personas [103.17413190093366]
協調フィルタリングに基づくデータ駆動型ペルソナ定義手法を提案する。
ユーザの連続表現を仮想トークンのシーケンスにマッピングするために,ソフトプロンプトモデルを学ぶ。
以上の結果から,本アルゴリズムはベースラインの収集よりも性能が優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z) - Recommender AI Agent: Integrating Large Language Models for Interactive
Recommendations [53.76682562935373]
我々は,LLMを脳として,レコメンダモデルをツールとして使用する,textbfInteRecAgentという効率的なフレームワークを紹介した。
InteRecAgentは会話レコメンデーションシステムとして満足度を達成し、汎用LLMよりも優れる。
論文 参考訳(メタデータ) (2023-08-31T07:36:44Z) - Unlocking the Potential of User Feedback: Leveraging Large Language
Model as User Simulator to Enhance Dialogue System [65.93577256431125]
本稿では,ユーザガイド応答最適化 (UGRO) という代替手法を提案し,タスク指向の対話モデルと組み合わせる。
このアプローチでは、アノテーションのないユーザシミュレータとしてLLMを使用して対話応答を評価し、より小型のエンドツーエンドTODモデルと組み合わせる。
提案手法は従来のSOTA(State-of-the-art)よりも優れている。
論文 参考訳(メタデータ) (2023-06-16T13:04:56Z) - Large-scale Multi-Modal Pre-trained Models: A Comprehensive Survey [69.03538086844516]
本稿では, 自然言語処理, コンピュータビジョン, 音声処理における従来のディープラーニング, 事前学習の成果を概観することにより, マルチモーダル事前学習の背景を紹介する。
次に,マルチモーダル事前学習モデル(MM-PTM)のタスク定義,課題,メリットを紹介し,データ,目的,ネットワークアーキテクチャ,知識強化事前学習に着目して,MM-PTMについて議論する。
論文 参考訳(メタデータ) (2023-02-20T15:34:03Z) - MultiHead MultiModal Deep Interest Recommendation Network [0.0]
本稿ではDINciteAuthors01モデルにマルチヘッドおよびマルチモーダルモジュールを追加する。
実験により、マルチヘッドマルチモーダルDINは推奨予測効果を向上し、様々な包括的指標において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-10-19T18:59:02Z) - Incremental Learning for Personalized Recommender Systems [8.020546404087922]
トレーニング効率とモデル品質の両方を提供するために,インクリメンタルな学習ソリューションを提案する。
このソリューションはLinkedInにデプロイされ、産業規模のレコメンデーションシステムに直接適用される。
論文 参考訳(メタデータ) (2021-08-13T04:21:21Z) - Learning to Generalize Unseen Domains via Memory-based Multi-Source
Meta-Learning for Person Re-Identification [59.326456778057384]
本稿では,メモリベースのマルチソースメタラーニングフレームワークを提案する。
また,メタテスト機能を多様化するメタバッチ正規化層(MetaBN)を提案する。
実験により、M$3$Lは、目に見えない領域に対するモデルの一般化能力を効果的に向上できることが示された。
論文 参考訳(メタデータ) (2020-12-01T11:38:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。