論文の概要: High Fidelity Textual User Representation over Heterogeneous Sources via Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2602.07333v1
- Date: Sat, 07 Feb 2026 03:27:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.572275
- Title: High Fidelity Textual User Representation over Heterogeneous Sources via Reinforcement Learning
- Title(参考訳): 強化学習による異種音源上の高忠実度テキストユーザ表現
- Authors: Rajat Arora, Ye Tao, Jianqiang Shen, Ping Liu, Muchen Wu, Qianqi Shen, Benjamin Le, Fedor Borisyuk, Jingwei Wu, Wenjing Zhang,
- Abstract要約: 本稿では,各メンバーに統一されたテキスト表現を合成するための新しい強化学習(RL)フレームワークを提案する。
我々のアプローチは、暗黙のユーザエンゲージメント信号(例えば、クリック、適用)を、有能な情報を抽出する主要な報酬として活用する。
この作業は、解釈可能なユーザ表現を構築するための実用的でラベリングフリーでスケーラブルなソリューションを提供する。
- 参考スコア(独自算出の注目度): 7.091225956788446
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Effective personalization on large-scale job platforms requires modeling members based on heterogeneous textual sources, including profiles, professional data, and search activity logs. As recommender systems increasingly adopt Large Language Models (LLMs), creating unified, interpretable, and concise representations from heterogeneous sources becomes critical, especially for latency-sensitive online environments. In this work, we propose a novel Reinforcement Learning (RL) framework to synthesize a unified textual representation for each member. Our approach leverages implicit user engagement signals (e.g., clicks, applies) as the primary reward to distill salient information. Additionally, the framework is complemented by rule-based rewards that enforce formatting and length constraints. Extensive offline experiments across multiple LinkedIn products, one of the world's largest job platforms, demonstrate significant improvements in key downstream business metrics. This work provides a practical, labeling-free, and scalable solution for constructing interpretable user representations that are directly compatible with LLM-based systems.
- Abstract(参考訳): 大規模ジョブプラットフォーム上での効果的なパーソナライズには、プロファイル、専門データ、検索アクティビティログを含む異種テキストソースに基づくモデリングメンバーが必要である。
推薦システムがLarge Language Models (LLMs) を採用するにつれて、特に遅延に敏感なオンライン環境において、異種ソースからの統一的、解釈可能、簡潔な表現が重要となる。
本研究では,各メンバーに統一されたテキスト表現を合成するための新しい強化学習(RL)フレームワークを提案する。
当社のアプローチでは、暗黙のユーザエンゲージメント信号(例えば、クリック、適用)を、有能な情報を抽出する主要な報酬として活用しています。
さらに、このフレームワークは、フォーマットと長さの制約を強制するルールベースの報酬によって補完される。
世界最大のジョブプラットフォームのひとつである複数のLinkedIn製品に対する大規模なオフライン実験は、重要なダウンストリームビジネスメトリクスを大幅に改善したことを示している。
この作業は、LCMベースのシステムと直接互換性のある解釈可能なユーザ表現を構築するための実用的でラベリングフリーでスケーラブルなソリューションを提供する。
関連論文リスト
- Large Language Model Prompt Datasets: An In-depth Analysis and Insights [17.386420251846953]
プロンプトは、大きな言語モデル(LLM)の特定のタスクを定義する自然言語命令である。
この作業では、初めて、さまざまなチャネルからソースされたプロンプトデータセットの広範なリストをコンパイルしました。
論文 参考訳(メタデータ) (2025-10-10T12:15:55Z) - From What to Why: Thought-Space Recommendation with Small Language Models [2.134948383299948]
大規模言語モデル(LLM)は推論の強化を通じて高度なレコメンデーション機能を備えているが、実際のデプロイメントには大きな課題がある。
SLM(Small Language Models)は効率的な代替手段を提供するが、推奨する推論機能は未検討のままである。
PULSE(Preference Understanding by Latent Semantic Embeddings)は,SLM生成論理をディレクター学習信号として扱うフレームワークである。
論文 参考訳(メタデータ) (2025-10-08T11:22:26Z) - From Millions of Tweets to Actionable Insights: Leveraging LLMs for User Profiling [3.304341919932024]
ドメイン定義文を活用する新しい大規模言語モデル(LLM)ベースのアプローチを導入する。
提案手法は,解釈可能な自然言語ユーザプロファイルを生成し,広範囲なユーザデータをスケールに集約する。
実験の結果,本手法は最先端のLCM法および従来手法よりも9.8%優れていた。
論文 参考訳(メタデータ) (2025-05-09T16:51:24Z) - Training Large Recommendation Models via Graph-Language Token Alignment [53.3142545812349]
本稿では,グラフ言語トークンアライメントによる大規模推薦モデルのトレーニングを行う新しいフレームワークを提案する。
インタラクショングラフからアイテムとユーザノードを事前訓練されたLLMトークンにアライメントすることで、GLTAはLLMの推論能力を効果的に活用する。
さらに、エンドツーエンドのアイテム予測のためのトークンアライメントを最適化するために、GLLM(Graph-Language Logits Matching)を導入する。
論文 参考訳(メタデータ) (2025-02-26T02:19:10Z) - Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
機密情報を含む匿名化は、幅広いアプリケーションにとって不可欠である。
既存の技術は、大規模言語モデルの再識別能力の新たな課題に直面している。
本稿では,プライバシ評価器,ユーティリティ評価器,最適化コンポーネントの3つの重要なコンポーネントで構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - Language Representations Can be What Recommenders Need: Findings and Potentials [57.90679739598295]
先進的なLM表現から線形にマッピングされた項目表現は、より優れたレコメンデーション性能が得られることを示す。
この結果は、先進言語表現空間と効果的な項目表現空間との同型性を示唆している。
本研究は,自然言語処理とリコメンデーションシステムコミュニティの両方に刺激を与える言語モデリングと行動モデリングの関連性を強調した。
論文 参考訳(メタデータ) (2024-07-07T17:05:24Z) - RecExplainer: Aligning Large Language Models for Explaining Recommendation Models [50.74181089742969]
大規模言語モデル (LLM) は、理解、推論、指導において顕著な知性を示した。
本稿では, ブラックボックスレコメンデータモデルを説明するために, LLM を代理モデルとして利用することについて検討する。
効果的なアライメントを容易にするために,行動アライメント,意図アライメント,ハイブリッドアライメントという3つの手法を導入する。
論文 参考訳(メタデータ) (2023-11-18T03:05:43Z) - Representation Learning with Large Language Models for Recommendation [33.040389989173825]
本稿では,大規模言語モデル (LLM) を用いた表現学習によるレコメンデータの強化を目的とした,モデルに依存しないフレームワーク RLMRec を提案する。
RLMRecには補助的なテキスト信号が組み込まれており、LLMが権限を持つユーザ/イテムプロファイリングパラダイムを開発し、LLMの意味空間と協調的関係信号の表現空間を整合させる。
論文 参考訳(メタデータ) (2023-10-24T15:51:13Z) - Exploring Large Language Model for Graph Data Understanding in Online
Job Recommendations [63.19448893196642]
本稿では,大規模言語モデルが提供するリッチな文脈情報と意味表現を利用して行動グラフを解析する新しいフレームワークを提案する。
この機能を利用することで、個々のユーザに対してパーソナライズされた、正確なジョブレコメンデーションが可能になる。
論文 参考訳(メタデータ) (2023-07-10T11:29:41Z) - Offline RL for Natural Language Generation with Implicit Language Q
Learning [87.76695816348027]
ユーザ指定タスクの完了に関して、大きな言語モデルは矛盾する可能性がある。
本稿では,RLのフレキシブル・ユーティリティ・フレームワークと教師あり学習能力を組み合わせた新しいRL手法を提案する。
ILQLの実証的な検証に加えて、オフラインRLが自然言語生成設定で有用となるような、詳細な経験的分析状況も提示する。
論文 参考訳(メタデータ) (2022-06-05T18:38:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。