論文の概要: From Time and Place to Preference: LLM-Driven Geo-Temporal Context in Recommendations
- arxiv url: http://arxiv.org/abs/2510.24430v1
- Date: Tue, 28 Oct 2025 13:57:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:37.209119
- Title: From Time and Place to Preference: LLM-Driven Geo-Temporal Context in Recommendations
- Title(参考訳): 時間と場所から選好へ:レコメンデーションにおけるLLM駆動のジオテンポラルコンテキスト
- Authors: Yejin Kim, Shaghayegh Agah, Mayur Nankani, Neeraj Sharma, Feifei Peng, Maria Peifer, Sardar Hamidian, H Howie Huang,
- Abstract要約: ほとんどのレコメンデーションシステムは、タイムスタンプを、休日、イベント、季節パターンといった現実世界のコンテキストを見渡す、数値的または循環的価値として扱う。
本稿では,大規模言語モデル(LLM)を用いて,タイムスタンプと粗い位置のみから時空間埋め込みを生成するスケーラブルなフレームワークを提案する。
- 参考スコア(独自算出の注目度): 3.402237483362839
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most recommender systems treat timestamps as numeric or cyclical values, overlooking real-world context such as holidays, events, and seasonal patterns. We propose a scalable framework that uses large language models (LLMs) to generate geo-temporal embeddings from only a timestamp and coarse location, capturing holidays, seasonal trends, and local/global events. We then introduce a geo-temporal embedding informativeness test as a lightweight diagnostic, demonstrating on MovieLens, LastFM, and a production dataset that these embeddings provide predictive signal consistent with the outcomes of full model integrations. Geo-temporal embeddings are incorporated into sequential models through (1) direct feature fusion with metadata embeddings or (2) an auxiliary loss that enforces semantic and geo-temporal alignment. Our findings highlight the need for adaptive or hybrid recommendation strategies, and we release a context-enriched MovieLens dataset to support future research.
- Abstract(参考訳): ほとんどのレコメンデーションシステムは、タイムスタンプを、休日、イベント、季節パターンといった現実世界のコンテキストを見渡す、数値的または循環的価値として扱う。
本研究では,大規模言語モデル(LLM)を用いて,時間スタンプと粗い位置のみから時空間埋め込みを生成し,ホリデーシーズン,季節傾向,地域/グローバルイベントを捉えるスケーラブルなフレームワークを提案する。
次に、ジオテンポラルな埋め込み情報度テストを軽量な診断として導入し、MovieLens、LastFM、および生産データセット上で、これらの埋め込みが完全なモデル統合の結果と一致した予測信号を提供することを示す。
1)メタデータの埋め込みによる直接的特徴融合、あるいは(2)意味的および時空間的アライメントを強制する補助的損失を通じて、時空間埋め込みをシーケンシャルモデルに組み込む。
その結果,適応的あるいはハイブリッドなレコメンデーション戦略の必要性が浮き彫りになり,今後の研究を支援するために,文脈に富んだMovieLensデータセットがリリースされた。
関連論文リスト
- GT-Loc: Unifying When and Where in Images Through a Joint Embedding Space [48.09196906704634]
GT-Locは、画像のキャプチャ時間(時間と月)と位置情報(GPS座標)を共同で予測する新しい検索ベースの手法である。
提案手法では,画像,時間,位置のエンコーダを分離し,その埋め込みを高次元特徴空間内に配置する。
論文 参考訳(メタデータ) (2025-07-14T16:54:57Z) - TimeRefine: Temporal Grounding with Time Refining Video LLM [75.99665302872901]
ビデオの時間的接地は、テキストのプロンプトが与えられたビデオの中で、関連する時間的境界をローカライズすることを目的としている。
我々は時間的接地タスクを時間的精錬タスクとして再構成する。
我々は、予測セグメントが基底真理からさらに逸脱した場合、モデルをよりペナルティ化する補助予測ヘッドを組み込む。
論文 参考訳(メタデータ) (2024-12-12T18:59:11Z) - GEOBench-VLM: Benchmarking Vision-Language Models for Geospatial Tasks [84.86699025256705]
本稿では,地理空間的タスクの視覚言語モデル(VLM)を評価するためのベンチマークであるGEOBench-VLMを提案する。
私たちのベンチマークでは、手動で検証された命令が1万以上あり、さまざまな視覚条件、オブジェクトタイプ、スケールにまたがっています。
地理空間固有の課題における性能を評価するために,いくつかの最先端のVLMを評価した。
論文 参考訳(メタデータ) (2024-11-28T18:59:56Z) - Advancing Large Language Models for Spatiotemporal and Semantic Association Mining of Similar Environmental Events [10.15184389811683]
本稿では,Large Language Models(LLMs)を利用した新しい検索検索フレームワークを提案する。
本稿では,空間的近接性,時間的関連性,意味的類似性,カテゴリー的類似性などの多面的基準を分類するGTR(Geo-Time Re- rank)戦略を提案する。
提案手法をローカル環境オブザーバ(LEO)ネットワークイベント4万件のデータセットに適用し,複数の最先端高密度検索モデル間で類似イベントを推奨する性能を実現する。
論文 参考訳(メタデータ) (2024-11-19T21:57:22Z) - Geolocation Representation from Large Language Models are Generic Enhancers for Spatio-Temporal Learning [10.438284728725842]
普遍表現モデルは、自然言語処理やコンピュータビジョンで広く使われているよりも一般的ではない。
この相違は、主に既存の表現モデルの入力に関連する高コストから生じる。
本研究では,大規模言語モデルを用いて位置情報表現を導出する学習自由手法を開発した。
論文 参考訳(メタデータ) (2024-08-22T04:05:02Z) - GeoLLM: Extracting Geospatial Knowledge from Large Language Models [49.20315582673223]
大規模言語モデルから地理空間的知識を効果的に抽出する新しい手法であるGeoLLMを提案する。
我々は、人口密度や経済生活の計測など、国際社会への関心の中心となる複数の課題にまたがるアプローチの有用性を実証する。
実験の結果, LLMは試料効率が高く, 地理空間情報に富み, 世界中のロバストであることがわかった。
論文 参考訳(メタデータ) (2023-10-10T00:03:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。