論文の概要: Developing a Recommendation Benchmark for MLPerf Training and Inference
- arxiv url: http://arxiv.org/abs/2003.07336v2
- Date: Tue, 14 Apr 2020 12:52:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 02:55:27.010426
- Title: Developing a Recommendation Benchmark for MLPerf Training and Inference
- Title(参考訳): MLPerfトレーニングと推論のための推奨ベンチマークの開発
- Authors: Carole-Jean Wu and Robin Burke and Ed H. Chi and Joseph Konstan and
Julian McAuley and Yves Raimond and Hao Zhang
- Abstract要約: 我々は、Theerferf Training and Inference Suitesの業界関連レコメンデーションベンチマークを定義することを目指している。
本稿では、パーソナライズされたレコメンデーションシステムのための望ましいモデリング戦略を合成する。
我々はレコメンデーションモデルアーキテクチャとデータセットの望ましい特徴を概説する。
- 参考スコア(独自算出の注目度): 16.471395965484145
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based recommendation models are used pervasively and broadly,
for example, to recommend movies, products, or other information most relevant
to users, in order to enhance the user experience. Among various application
domains which have received significant industry and academia research
attention, such as image classification, object detection, language and speech
translation, the performance of deep learning-based recommendation models is
less well explored, even though recommendation tasks unarguably represent
significant AI inference cycles at large-scale datacenter fleets. To advance
the state of understanding and enable machine learning system development and
optimization for the commerce domain, we aim to define an industry-relevant
recommendation benchmark for the MLPerf Training andInference Suites. The paper
synthesizes the desirable modeling strategies for personalized recommendation
systems. We lay out desirable characteristics of recommendation model
architectures and data sets. We then summarize the discussions and advice from
the MLPerf Recommendation Advisory Board.
- Abstract(参考訳): ディープラーニングベースのレコメンデーションモデルは、例えば、ユーザエクスペリエンスを向上させるために、映画、製品、その他のユーザに最も関係のある情報を推薦するために、広く広く使用される。
画像分類、オブジェクト検出、言語と音声の翻訳など、重要な産業や学術研究の注目を集めている多くのアプリケーションドメインの中で、大規模データセンター群におけるAI推論サイクルを必然的に表すようなレコメンデーションタスクであっても、ディープラーニングベースのレコメンデーションモデルのパフォーマンスはあまりよく調査されていない。
機械学習システムの開発と商業分野の最適化を前進させ、その実現のために、mlperf training andinference suitesの業界関連レコメンデーションベンチマークを策定することを目指している。
本論文はパーソナライズドレコメンデーションシステムのための望ましいモデリング戦略を合成する。
推奨モデルアーキテクチャとデータセットの望ましい特徴を概説する。
次に、MLPerf勧告諮問委員会からの議論とアドバイスを要約する。
関連論文リスト
- Generative Large Recommendation Models: Emerging Trends in LLMs for Recommendation [85.52251362906418]
このチュートリアルでは、大規模言語モデル(LLM)を統合するための2つの主要なアプローチを探求する。
これは、最近の進歩、課題、潜在的研究の方向性を含む、生成的な大規模なレコメンデーションモデルの包括的な概要を提供する。
主なトピックは、データ品質、スケーリング法則、ユーザの行動マイニング、トレーニングと推論の効率性である。
論文 参考訳(メタデータ) (2025-02-19T14:48:25Z) - Large Language Models Are Universal Recommendation Learners [27.16327640562273]
大規模言語モデル(LLM)は、普遍的なレコメンデーション学習者として機能する。
本稿では、アイテム表現のためのマルチモーダル融合モジュールと効率的な候補生成のためのシーケンス・イン・セット・アウト・アプローチを提案する。
分析の結果,推薦結果はテキスト入力に非常に敏感であることが判明した。
論文 参考訳(メタデータ) (2025-02-05T09:56:52Z) - Scaling New Frontiers: Insights into Large Recommendation Models [74.77410470984168]
MetaのジェネレーティブレコメンデーションモデルHSTUは、パラメータを数千億に拡張することでレコメンデーションシステムのスケーリング法則を説明している。
我々は、これらのスケーリング法則の起源を探るため、包括的なアブレーション研究を行っている。
大規模なレコメンデーションモデルの今後の方向性に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-12-01T07:27:20Z) - LLM-Powered Explanations: Unraveling Recommendations Through Subgraph Reasoning [40.53821858897774]
本稿では,Large Language Models (LLMs) とKGs (KGs) を相乗する新しいレコメンデータを紹介し,そのレコメンデーションを強化し,解釈可能な結果を提供する。
提案手法は,レコメンデータシステムの有効性と解釈性を両立させる。
論文 参考訳(メタデータ) (2024-06-22T14:14:03Z) - LEARN: Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application [54.984348122105516]
Llm-driven knowlEdge Adaptive RecommeNdation (LEARN)フレームワークは、オープンワールドの知識と協調的な知識をシナジする。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T04:00:30Z) - Emerging Synergies Between Large Language Models and Machine Learning in
Ecommerce Recommendations [19.405233437533713]
大規模言語モデル(LLM)は、言語理解と生成の基本的なタスクにおいて優れた機能を持つ。
機能エンコーダとしてLLMを用いたユーザとアイテムの表現を学習するための代表的なアプローチを提案する。
次に、協調フィルタリング強化レコメンデーションシステムのためのLLM技術の最新技術について概説した。
論文 参考訳(メタデータ) (2024-03-05T08:31:00Z) - Recommender Systems in the Era of Large Language Models (LLMs) [62.0129013439038]
大規模言語モデル(LLM)は自然言語処理(NLP)と人工知能(AI)の分野に革命をもたらした。
我々は, プレトレーニング, ファインチューニング, プロンプティングなどの様々な側面から, LLM を利用したレコメンデータシステムの総合的なレビューを行う。
論文 参考訳(メタデータ) (2023-07-05T06:03:40Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - Recommendation as Instruction Following: A Large Language Model
Empowered Recommendation Approach [83.62750225073341]
我々は、大規模言語モデル(LLM)による指示としてレコメンデーションを考える。
まず、ユーザの好み、意図、タスクフォーム、コンテキストを自然言語で記述するための一般的な命令形式を設計する。
そして、39の命令テンプレートを手動で設計し、大量のユーザ個人化された命令データを自動的に生成する。
論文 参考訳(メタデータ) (2023-05-11T17:39:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。