論文の概要: CHIME: A Compressive Framework for Holistic Interest Modeling
- arxiv url: http://arxiv.org/abs/2504.06780v1
- Date: Wed, 09 Apr 2025 11:08:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-10 13:05:17.571372
- Title: CHIME: A Compressive Framework for Holistic Interest Modeling
- Title(参考訳): CHIME: ホリスティックな関心モデリングのための圧縮フレームワーク
- Authors: Yong Bai, Rui Xiang, Kaiyuan Li, Yongxiang Tang, Yanhua Cheng, Xialong Liu, Peng Jiang, Kun Gai,
- Abstract要約: ホリスティックな関心モデリングのための圧縮フレームワークCHIMEを提案する。
適応された大きな言語モデルを使用して、不均一な入力で完全なユーザ動作をエンコードする。
ChiMEは多様なデータセット間で優れたランキングパフォーマンスを示す。
- 参考スコア(独自算出の注目度): 15.818669767036592
- License:
- Abstract: Modeling holistic user interests is important for improving recommendation systems but is challenged by high computational cost and difficulty in handling diverse information with full behavior context. Existing search-based methods might lose critical signals during behavior selection. To overcome these limitations, we propose CHIME: A Compressive Framework for Holistic Interest Modeling. It uses adapted large language models to encode complete user behaviors with heterogeneous inputs. We introduce multi-granular contrastive learning objectives to capture both persistent and transient interest patterns and apply residual vector quantization to generate compact embeddings. CHIME demonstrates superior ranking performance across diverse datasets, establishing a robust solution for scalable holistic interest modeling in recommendation systems.
- Abstract(参考訳): 包括的ユーザの興味をモデル化することはレコメンデーションシステムを改善する上で重要であるが、計算コストが高く、行動コンテキストの完全な多様性を扱うのが困難である。
既存の検索ベースの手法は、行動選択時に重要な信号を失う可能性がある。
このような制約を克服するために,我々は,ホロスティックな関心モデリングのための圧縮フレームワークCHIMEを提案する。
適応された大きな言語モデルを使用して、不均一な入力で完全なユーザ動作をエンコードする。
連続的および過渡的興味パターンの両方をキャプチャし、残差ベクトル量子化を適用してコンパクトな埋め込みを生成するために、多粒性コントラスト学習の目的を導入する。
CHIMEは多様なデータセットにまたがる優れたランキング性能を示し、レコメンデーションシステムにおけるスケーラブルな全体的関心モデリングのための堅牢なソリューションを確立します。
関連論文リスト
- A Recommendation Model Utilizing Separation Embedding and Self-Attention for Feature Mining [7.523158123940574]
レコメンデーションシステムは、ユーザのニーズを満たすコンテンツをユーザに提供します。
従来のクリックスルーレート予測とTOP-Kレコメンデーションメカニズムはレコメンデーションのニーズを満たすことができない。
本稿では,ネットワーク間の分離に基づくレコメンデーションシステムモデルを提案する。
論文 参考訳(メタデータ) (2024-10-19T07:49:21Z) - Latent Feature Mining for Predictive Model Enhancement with Large Language Models [2.6334346517416876]
本稿では,テキストからテキストへの命題論理的推論として潜在特徴抽出を定式化するための効果的なアプローチを提案する。
本稿では,大規模言語モデル (LLM) を利用した潜在機能付き観測機能拡張フレームワークであるFLAMEを提案する。
この枠組みを刑事司法制度と医療領域の2つのケーススタディで検証する。
論文 参考訳(メタデータ) (2024-10-06T03:51:32Z) - Restore Anything Model via Efficient Degradation Adaptation [129.38475243424563]
RAMは、様々な劣化にまたがる固有の類似性を活用して、効率的で包括的な復元を可能にする統一された経路を取る。
RAMのSOTA性能はRAMのSOTA性能を確認し、トレーニング可能なパラメータで約82%、FLOPで約85%のモデルの複雑さを減少させる。
論文 参考訳(メタデータ) (2024-07-18T10:26:53Z) - SynerGraph: An Integrated Graph Convolution Network for Multimodal Recommendation [1.3812010983144802]
本稿では,マルチモーダルデータの統合と浄化に焦点をあてた,マルチモーダルレコメンデーションシステムに対する新しいアプローチを提案する。
各種データからノイズを除去するフィルタを開発し,提案手法の信頼性を高めた。
我々は、各データセットに対するトップKスパリフィケーションの影響を調査し、不適合と過適合のバランスをとる最適な値を発見した。
論文 参考訳(メタデータ) (2024-05-29T12:18:32Z) - Entropy-Regularized Token-Level Policy Optimization for Language Agent Reinforcement [67.1393112206885]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
我々は,データサイエンスコード生成を多段階対話型タスクのシリーズとしてモデル化したシミュレーション環境におけるETPOの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z) - Evaluating Concurrent Robustness of Language Models Across Diverse Challenge Sets [46.19529338280716]
言語モデルはブラックボックスの性質が特徴で、しばしば幻覚を呈し、入力の摂動に敏感である。
入力摂動が言語モデルにどう影響するかを,様々な尺度で検討する手法を提案する。
複数の摂動に対するロバスト性に対処するための3つの異なる微調整戦略を提案する。
論文 参考訳(メタデータ) (2023-11-15T02:59:10Z) - Bottlenecks CLUB: Unifying Information-Theoretic Trade-offs Among
Complexity, Leakage, and Utility [8.782250973555026]
ボトルネック問題(英: Bottleneck problem)は、機械学習と情報理論の分野において近年注目を集めている最適化問題の重要なクラスである。
本稿では,複雑性推論ユーティリティ・ボトルネック(CLUB)モデルと呼ばれる最適化問題の一般的なファミリーを提案する。
CLUBモデルは、他の情報理論プライバシモデルと同様に、これらの問題を一般化する。
論文 参考訳(メタデータ) (2022-07-11T14:07:48Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Adaptive Discrete Communication Bottlenecks with Dynamic Vector
Quantization [76.68866368409216]
入力に条件付けされた離散化の厳密度を動的に選択する学習を提案する。
コミュニケーションボトルネックの動的に変化する厳密さは、視覚的推論や強化学習タスクにおけるモデル性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-02-02T23:54:26Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。