論文の概要: Addressing Cold Start For next-article Recommendation
- arxiv url: http://arxiv.org/abs/2508.01036v1
- Date: Fri, 01 Aug 2025 19:28:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:21.675855
- Title: Addressing Cold Start For next-article Recommendation
- Title(参考訳): 次世代レコメンデーションへのコールドスタートへの取り組み
- Authors: Omar Elgohary, Nathan Jorgenson, Trenton Marple,
- Abstract要約: 複製研究は、次の歌のレコメンデーションのために構築された適応線形マッピングモデルであるALMMを、MINDデータセット上のニュースレコメンデーション問題に修正する。
我々のレプリケーションは、このモデルをユーザ読み込みパターンに合わせるように再構成することで、コールドスタートシナリオのレコメンデーションパフォーマンスを改善することを目的としています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This replication study modifies ALMM, the Adaptive Linear Mapping Model constructed for the next song recommendation, to the news recommendation problem on the MIND dataset. The original version of ALMM computes latent representations for users, last-time items, and current items in a tensor factorization structure and learns a linear mapping from content features to latent item vectors. Our replication aims to improve recommendation performance in cold-start scenarios by restructuring this model to sequential news click behavior, viewing consecutively read articles as (last news, next news) tuples. Instead of the original audio features, we apply BERT and a TF-IDF (Term Frequency-Inverse Document Frequency) to news titles and abstracts to extract token contextualized representations and align them with triplet-based user reading patterns. We also propose a reproducibly thorough pre-processing pipeline combining news filtering and feature integrity validation. Our implementation of ALMM with TF-IDF shows relatively improved recommendation accuracy and robustness over Forbes and Oord baseline models in the cold-start scenario. We demonstrate that ALMM in a minimally modified state is not suitable for next news recommendation.
- Abstract(参考訳): 本研究は,次の楽曲推薦のために構築された適応線形マッピングモデルであるALMMを,MINDデータセット上のニュースレコメンデーション問題に修正する。
ALMMのオリジナルバージョンは、テンソル分解構造において、ユーザ、ラストタイムアイテム、および現在のアイテムの潜時表現を計算し、コンテンツ特徴から潜時アイテムベクトルへの線形マッピングを学習する。
我々の複製は、このモデルをシーケンシャルなニュースクリック行動に再構成し、連続して読まれた記事を(最後のニュース、次のニュース)タプルとして見ることにより、コールドスタートシナリオにおけるレコメンデーションパフォーマンスを向上させることを目的としている。
従来の音声機能の代わりに、ニュースタイトルや要約にBERTとTF-IDF(Term Frequency-Inverse Document Frequency)を適用して、トークンの文脈化表現を抽出し、3重項ベースのユーザ読み取りパターンと整合させる。
また,ニュースフィルタリングと特徴整合性検証を組み合わせた再現性に富んだ事前処理パイプラインを提案する。
TF-IDFを用いたALMMの実装により,コールドスタートシナリオにおけるForbesおよびOordベースラインモデルに対する推奨精度とロバスト性は比較的向上した。
我々は、ALMMを最小限に修正した状態では、次のニュースレコメンデーションには適さないことを示した。
関連論文リスト
- End-to-End Personalization: Unifying Recommender Systems with Large Language Models [0.0]
グラフ注意ネットワーク(GAT)と大言語モデル(LLM)を組み合わせた新しいハイブリッドレコメンデーションフレームワークを提案する。
LLMは、タイトル、ジャンル、概要などのメタデータに基づいて意味的に意味のあるプロファイルを生成することによって、ユーザーとアイテムの表現を豊かにするために最初に使用される。
MovieLens 100kと1Mを含むベンチマークデータセットでモデルを評価し、強いベースラインを一貫して上回ります。
論文 参考訳(メタデータ) (2025-08-02T22:46:50Z) - LLM2Rec: Large Language Models Are Powerful Embedding Models for Sequential Recommendation [49.78419076215196]
シーケンスレコメンデーションは、類似したユーザやアイテムの履歴行動から協調フィルタリング(CF)信号をモデル化することで、ユーザの将来のインタラクションを予測することを目的としている。
従来のシーケンシャルなレコメンダは、高次の共起パターンを通じてCF信号をキャプチャするIDベースの埋め込みに依存している。
大規模言語モデル(LLM)の最近の進歩は、テキスト記述からアイテム表現を導出するテキストベースのレコメンデーションアプローチを動機付けている。
理想的な埋め込みモデルは、ドメイン内およびドメイン外のレコメンデーションパフォーマンスを改善するために、CF信号とリッチなセマンティック表現をシームレスに統合すべきである、と我々は主張する。
論文 参考訳(メタデータ) (2025-06-16T13:27:06Z) - Self-Boost via Optimal Retraining: An Analysis via Approximate Message Passing [58.52119063742121]
独自の予測と潜在的にノイズの多いラベルを使ってモデルをトレーニングすることは、モデルパフォーマンスを改善するためのよく知られた戦略である。
本稿では,モデルの予測と提供ラベルを最適に組み合わせる方法について論じる。
我々の主な貢献は、現在のモデルの予測と与えられたラベルを組み合わせたベイズ最適集約関数の導出である。
論文 参考訳(メタデータ) (2025-05-21T07:16:44Z) - Enhancing News Recommendation with Hierarchical LLM Prompting [17.481812986550633]
パーソナライズされたニュースレコメンデーションのための大規模言語モデルのためのPNR-LLMを紹介する。
PNR-LLMはLLMの生成能力を利用してニュースタイトルや要約を充実させる。
本稿では,統合されたユーザとニュースの埋め込みを形成する,リッチなセマンティックおよびエンティティレベルのデータを集約するアテンション機構を提案する。
論文 参考訳(メタデータ) (2025-04-29T06:02:16Z) - Aligning Large Language Models via Fine-grained Supervision [20.35000061196631]
事前訓練された大規模言語モデル(LLM)は、一貫性のある記事を生成するのに優れていますが、そのアウトプットは非現実的、有毒、あるいはユーザの期待に沿わないかもしれません。
現在のアプローチは、モデルアライメントを改善するために、人間のフィードバックによる強化学習を使うことに重点を置いている。
トークンレベルの微粒化によるLCMアライメント向上手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T20:21:45Z) - MMGRec: Multimodal Generative Recommendation with Transformer Model [81.61896141495144]
MMGRecは、マルチモーダルレコメンデーションに生成パラダイムを導入することを目指している。
まず,階層的な量子化手法であるGraph CF-RQVAEを考案し,各項目にRec-IDを割り当てる。
次に、Transformerベースのレコメンデータをトレーニングし、過去のインタラクションシーケンスに基づいて、ユーザが推奨するアイテムのRec-IDを生成する。
論文 参考訳(メタデータ) (2024-04-25T12:11:27Z) - Text Matching Improves Sequential Recommendation by Reducing Popularity
Biases [48.272381505993366]
TASTEは、アイテムの識別子と属性を使用して、アイテムとユーザとイテムのインタラクションを言語化する。
実験の結果,TASTEはシーケンシャルレコメンデーションデータセットにおいて最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-08-27T07:44:33Z) - Generating Query Focused Summaries without Fine-tuning the
Transformer-based Pre-trained Models [0.6124773188525718]
新しいデータセットごとに自然言語処理(NLP)モデルを微調整するには、炭素フットプリントの増加とコストの増大に伴う高い計算時間が必要である。
本稿では,MMR(Marginal Maximum Relevance)に基づくアプローチが,事前学習に使用しなかった新しいデータセットから直接,クエリ中心の要約を得る上で有効かどうかを検討する。
実験結果から示すように,MMRに基づく手法では,最も関連性の高い文を要約としてランク付けし,個々の事前学習モデルよりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-03-10T22:40:15Z) - Sequential Recommendation with Auxiliary Item Relationships via
Multi-Relational Transformer [74.64431400185106]
逐次レコメンデーション(SR)のための補助項目関係をモデル化可能なマルチリレーショナルトランスを提案する。
具体的には,任意の項目関係と項目関係の重み付けを組み込んだ新たな自己注意モジュールを提案する。
第3に、シーケンス間アイテム関係ペアに対して、新しいシーケンス間アイテムモデリングモジュールを導入する。
論文 参考訳(メタデータ) (2022-10-24T19:49:17Z) - Sequential Recommendation via Stochastic Self-Attention [68.52192964559829]
Transformerベースのアプローチでは、アイテムをベクトルとして埋め込んで、ドット積の自己アテンションを使用してアイテム間の関係を測定する。
本稿では,これらの問題を克服するための新しいtextbfStochastic textbfSelf-textbfAttention (STOSA) を提案する。
我々は、アイテムと項目の位置関係を列で特徴づける新しいワッサースタイン自己保持モジュールを考案した。
論文 参考訳(メタデータ) (2022-01-16T12:38:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。