論文の概要: Job recommendations: benchmarking of collaborative filtering methods for
classifieds
- arxiv url: http://arxiv.org/abs/2301.07946v1
- Date: Thu, 19 Jan 2023 08:46:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-20 15:26:25.087901
- Title: Job recommendations: benchmarking of collaborative filtering methods for
classifieds
- Title(参考訳): ジョブレコメンデーション:分類のための協調フィルタリング手法のベンチマーク
- Authors: Robert Kwieci\'nski, Agata Filipowska, Tomasz G\'orecki and Viacheslav
Dubrov
- Abstract要約: 本稿では,OLX Jobs の例を用いて分類の推薦手法について検討する。
スケーラブルで,ALS,LightFM,Prod2Vec,RP3beta,SLIMなど,さまざまなアプローチで推奨する手法を実装している。
このデータセットには、OLX Jobsで3,295,942人のユーザーが65,502,201件のイベントが含まれており、2020年の2週間で185,395件の求人広告と対話した(表示、応答、ブックマーク)。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Classifieds provide many challenges for recommendation methods, due to the
limited information regarding users and items. In this paper, we explore
recommendation methods for classifieds using the example of OLX Jobs.
The goal of the paper is to benchmark different recommendation methods for
jobs classifieds in order to improve advertisements' conversion rate and user
satisfaction.
In our research, we implemented methods that are scalable and represent
different approaches to recommendation, namely ALS, LightFM, Prod2Vec, RP3beta,
and SLIM. We performed a laboratory comparison of methods with regard to
accuracy, diversity, and scalability (memory and time consumption during
training and in prediction). Online A/B tests were also carried out by sending
millions of messages with recommendations to evaluate models in a real-world
setting.
In addition, we have published the dataset that we created for the needs of
our research. To the best of our knowledge, this is the first dataset of this
kind. The dataset contains 65,502,201 events performed on OLX Jobs by 3,295,942
users, who interacted with (displayed, replied to, or bookmarked) 185,395 job
ads in two weeks of 2020.
We demonstrate that RP3beta, SLIM, and ALS perform significantly better than
Prod2Vec and LightFM when tested in a laboratory setting. Online A/B tests also
demonstrated that sending messages with recommendations generated by the ALS
and RP3beta models increases the number of users contacting advertisers.
Additionally, RP3beta had a 20% greater impact on this metric than ALS.
- Abstract(参考訳): 分類は、ユーザやアイテムに関する情報が限られているため、レコメンデーション手法に多くの課題を提供する。
本稿では,OLX Jobs の例を用いて分類の推薦手法を検討する。
本研究の目的は,広告のコンバージョン率とユーザ満足度を改善するために,職業分類の異なる推薦手法をベンチマークすることである。
本研究では, ALS, LightFM, Prod2Vec, RP3beta, SLIM といった,スケーラブルで様々な手法を推奨する手法を実装した。
精度,多様性,拡張性(トレーニング時および予測時におけるメモリおよび時間消費)に関する手法を実験室で比較した。
オンラインA/Bテストも、数百万のメッセージを送り、実際の環境でモデルを評価することを推奨することで実施された。
さらに、我々の研究のニーズに合わせて作成したデータセットも公開しました。
私たちの知る限りでは、この種のデータセットはこれが初めてです。
データセットには、3,295,942人のユーザーがolxジョブで実施した65,502,201のイベントが含まれており、2020年の2週間で185,395のジョブ広告と対話した。
実験室で試験した場合,RP3beta,SLIM,ALSはProd2Vec,LightFMよりも優れた性能を示した。
オンラインa/bテストでは、alsとrp3ベータモデルが生成したレコメンデーションでメッセージを送信すると広告主に連絡するユーザーの数が増加することも示されている。
さらに、RP3betaはALSよりも20%大きな影響を及ぼした。
関連論文リスト
- Star-Agents: Automatic Data Optimization with LLM Agents for Instruction Tuning [71.2981957820888]
本稿では,データセット間のデータ品質向上を自動化する新しいStar-Agentsフレームワークを提案する。
このフレームワークは最初,複数のLDMエージェントを用いた多様なインストラクションデータを生成する。
生成したデータは、難易度と品質の両方を評価する二重モデル法を用いて厳密な評価を行う。
論文 参考訳(メタデータ) (2024-11-21T02:30:53Z) - Efficient and Deployable Knowledge Infusion for Open-World Recommendations via Large Language Models [53.547190001324665]
大規模言語モデル(LLM)からユーザとアイテムに関する2種類の外部知識を取得するためのREKIを提案する。
個別の知識抽出と個別の知識抽出を,異なるシナリオのスケールに合わせて開発し,オフラインのリソース消費を効果的に削減する。
実験によると、REKIは最先端のベースラインより優れており、多くの推奨アルゴリズムやタスクと互換性がある。
論文 参考訳(メタデータ) (2024-08-20T03:45:24Z) - Knowledge Editing in Language Models via Adapted Direct Preference Optimization [50.616875565173274]
大きな言語モデル(LLM)は、時間とともに時代遅れになる可能性がある。
知識編集は、高価なリトレーニングを必要としないウェイトアップデートを使用して、この課題を克服することを目的としている。
論文 参考訳(メタデータ) (2024-06-14T11:02:21Z) - LOLA: LLM-Assisted Online Learning Algorithm for Content Experiments [2.2021543101231167]
現代のメディア企業は、ユーザーにとって最も魅力的で魅力的なコンテンツを特定するために、自動化され効率的な方法を必要としている。
本稿ではまず,3つの純LLM手法を用いて,最もキャッチラインを識別する能力について検討する。
LLM-Assisted Online Learning Algorithm (LOLA) は,Large Language Models (LLM) と適応実験を統合し,コンテンツ配信を最適化する新しいフレームワークである。
論文 参考訳(メタデータ) (2024-06-03T07:56:58Z) - Monte Carlo Tree Search Boosts Reasoning via Iterative Preference Learning [55.96599486604344]
本稿では,Large Language Models (LLMs) の推論能力向上を目的とした,反復的な選好学習プロセスによるアプローチを提案する。
我々は、MCTS(Monte Carlo Tree Search)を用いて好みデータを反復的に収集し、そのルックアヘッド機能を利用して、インスタンスレベルの報酬をよりきめ細かいステップレベルの信号に分解する。
提案アルゴリズムはDPO(Direct Preference Optimization)を用いて,新たに生成されたステップレベルの優先度データを用いてLCMポリシーを更新する。
論文 参考訳(メタデータ) (2024-05-01T11:10:24Z) - Uncertainty-Aware Explainable Recommendation with Large Language Models [15.229417987212631]
GPT-2のプロンプトとしてユーザおよびアイテム入力のIDベクトルを利用するモデルを開発する。
マルチタスク学習フレームワークには,推薦タスクと説明タスクの両方を最適化するために,共同トレーニング機構が採用されている。
提案手法はYelp, TripAdvisor, Amazon のデータセット上でそれぞれ 1.59 DIV, 0.57 USR, 0.41 FCR を達成する。
論文 参考訳(メタデータ) (2024-01-31T14:06:26Z) - LlamaRec: Two-Stage Recommendation using Large Language Models for
Ranking [10.671747198171136]
ランキングベースレコメンデーション(LlamaRec)のための大規模言語モデルを用いた2段階フレームワークを提案する。
特に,ユーザインタラクション履歴に基づいて候補を検索するために,小規模なシーケンシャルレコメンデータを用いる。
LlamaRecは、推奨パフォーマンスと効率の両方において、データセットの優れたパフォーマンスを一貫して達成している。
論文 参考訳(メタデータ) (2023-10-25T06:23:48Z) - Large Language Model-Aware In-Context Learning for Code Generation [75.68709482932903]
大規模言語モデル(LLM)は、コード生成において印象的なコンテキスト内学習(ICL)能力を示している。
コード生成のためのLAIL (LLM-Aware In-context Learning) という新しい学習ベース選択手法を提案する。
論文 参考訳(メタデータ) (2023-10-15T06:12:58Z) - Efficient Online Reinforcement Learning with Offline Data [78.92501185886569]
オンライン学習時にオフラインデータを活用するために、既存のオフライン手法を単純に適用できることを示します。
私たちはこれらの設計選択を広範囲に改善し、パフォーマンスに最も影響を与える重要な要因を示します。
これらのシンプルなレコメンデーションの正しい適用によって、既存のアプローチよりも$mathbf2.5times$の改善が得られます。
論文 参考訳(メタデータ) (2023-02-06T17:30:22Z) - GOLD: Improving Out-of-Scope Detection in Dialogues using Data
Augmentation [41.04593978694591]
金のテクニックは、既存のデータを拡張して、低データ状態で動作するより良いOOS検出器を訓練する。
3つのベンチマークを対象とした実験では、上位のGOLDモデルは、すべての主要なメトリクスで既存のメソッドよりも優れています。
論文 参考訳(メタデータ) (2021-09-07T13:35:03Z) - Self-supervised Learning for Large-scale Item Recommendations [18.19202958502061]
大規模なレコメンデータモデルは、巨大なカタログから最も関連性の高いアイテムを見つけ出す。
コーパスには何百万から数十億ものアイテムがあり、ユーザーはごく少数のユーザーに対してフィードバックを提供する傾向にある。
大規模項目推薦のためのマルチタスク自己教師型学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-25T06:21:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。