論文の概要: Comment Staytime Prediction with LLM-enhanced Comment Understanding
- arxiv url: http://arxiv.org/abs/2504.01602v1
- Date: Wed, 02 Apr 2025 11:09:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 19:59:19.326921
- Title: Comment Staytime Prediction with LLM-enhanced Comment Understanding
- Title(参考訳): LLMによるコメント理解によるコメント待ち時間予測
- Authors: Changshuo Zhang, Zihan Lin, Shukai Liu, Yongqi Liu, Han Li,
- Abstract要約: ユーザーエンゲージメントの鍵となる要素は、ユーザーがコメントを閲覧して投稿する時間を指す、滞在時間である。
既存の監視時間予測手法は、個々のコメントとのインタラクションを見渡すことで、滞在時間予測に適応するのに苦労する。
コメント理解(LCU)を用いたコメント滞在予測のための実践的枠組みを提案する。
- 参考スコア(独自算出の注目度): 15.090380492596754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In modern online streaming platforms, the comments section plays a critical role in enhancing the overall user experience. Understanding user behavior within the comments section is essential for comprehensive user interest modeling. A key factor of user engagement is staytime, which refers to the amount of time that users browse and post comments. Existing watchtime prediction methods struggle to adapt to staytime prediction, overlooking interactions with individual comments and their interrelation. In this paper, we present a micro-video recommendation dataset with video comments (named as KuaiComt) which is collected from Kuaishou platform. correspondingly, we propose a practical framework for comment staytime prediction with LLM-enhanced Comment Understanding (LCU). Our framework leverages the strong text comprehension capabilities of large language models (LLMs) to understand textual information of comments, while also incorporating fine-grained comment ranking signals as auxiliary tasks. The framework is two-staged: first, the LLM is fine-tuned using domain-specific tasks to bridge the video and the comments; second, we incorporate the LLM outputs into the prediction model and design two comment ranking auxiliary tasks to better understand user preference. Extensive offline experiments demonstrate the effectiveness of our framework, showing significant improvements on the task of comment staytime prediction. Additionally, online A/B testing further validates the practical benefits on industrial scenario. Our dataset KuaiComt (https://github.com/lyingCS/KuaiComt.github.io) and code for LCU (https://github.com/lyingCS/LCU) are fully released.
- Abstract(参考訳): 現代のオンラインストリーミングプラットフォームでは、コメントセクションは全体のユーザーエクスペリエンスを向上させる上で重要な役割を果たす。
コメントセクション内でのユーザの振る舞いを理解することは、包括的なユーザ関心モデリングに不可欠である。
ユーザーエンゲージメントの鍵となる要素は、ユーザーがコメントを閲覧して投稿する時間を指す、滞在時間である。
既存の監視時間予測手法は、個々のコメントとのインタラクションとそれらの相互関係を見渡すことで、滞在時間予測に適応するのに苦労する。
本稿では,Kuaishouプラットフォームから収集したビデオコメント(KuaiComt)を用いたマイクロビデオレコメンデーションデータセットを提案する。
そこで本研究では,LLM強化コメント理解(LCU)を用いたコメント滞在時間予測の実践的枠組みを提案する。
本フレームワークは,大規模言語モデル(LLM)の強力なテキスト理解機能を活用して,コメントのテキスト情報を理解するとともに,詳細なコメントランキング信号を補助タスクとして組み込む。
まず、LLMの出力を予測モデルに組み込んで、2つのコメントランキング補助タスクを設計し、ユーザの好みをよりよく理解する。
大規模なオフライン実験により,本フレームワークの有効性が実証され,コメント滞在時間予測のタスクに大幅な改善が見られた。
さらに、オンラインA/Bテストは、産業シナリオにおける実践的なメリットをさらに検証する。
我々のデータセット KuaiComt (https://github.com/lyingCS/KuaiComt.github.io) と LCU (https://github.com/lyingCS/LCU) 用のコードは完全にリリースされています。
関連論文リスト
- From Text to Time? Rethinking the Effectiveness of the Large Language Model for Time Series Forecasting [22.052783052469344]
時系列予測のバックボーンとして事前訓練された大言語モデル(LLMs)を用いることは、近年、大きな研究関心を集めている。
小さなデータセット上でのLCMベースのモデルのトレーニングとテストは、しばしばDecoderとDecoderがデータセットに過度に適応するようになることを観察する。
大規模な実験により、LSMのバックボーンはある程度の可能性を証明しているが、予測性能は限られていることが明らかになった。
論文 参考訳(メタデータ) (2025-04-09T13:20:09Z) - QuoTA: Query-oriented Token Assignment via CoT Query Decouple for Long Video Comprehension [86.0749609778104]
既存の大規模ビデオ言語モデルを拡張した,アンテホックなトレーニングフリーモジュールQuoTAを提案する。
QuoTAは、クエリ関連性に基づいて、フレームレベルの重要度スコアを戦略的に割り当てる。
クエリをChain-of-Thoughts推論で切り離し、より正確なLVLMベースのフレーム重要度スコアリングを容易にする。
論文 参考訳(メタデータ) (2025-03-11T17:59:57Z) - Explainable Multi-modal Time Series Prediction with LLM-in-the-Loop [63.34626300024294]
TimeXLはプロトタイプベースの時系列エンコーダを統合するマルチモーダル予測フレームワークである。
より正確な予測と解釈可能な説明を生成する。
4つの実世界のデータセットに対する実証的な評価は、TimeXLがAUCで最大8.9%の改善を達成していることを示している。
論文 参考訳(メタデータ) (2025-03-02T20:40:53Z) - Temporal Context Consistency Above All: Enhancing Long-Term Anticipation by Learning and Enforcing Temporal Constraints [4.880243880711163]
本稿では,初期未トリミング映像区間の観察から,動画中の動作ラベルとその持続時間を予測する手法を提案する。
並列デコーディングを備えたエンコーダ・デコーダアーキテクチャ上に構築し,2つの重要なコントリビューションを行う。
LTA,EpicKitchen-55,EGTEA+,50Salads,Breakfastの4つのベンチマークデータセットに対して,本手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-12-27T03:29:10Z) - CIBench: Evaluating Your LLMs with a Code Interpreter Plugin [68.95137938214862]
データサイエンスタスクにコードインタプリタを利用するLLMの能力を総合的に評価する,CIBenchという対話型評価フレームワークを提案する。
評価データセットは,LLM-人的協調手法を用いて構築され,連続的かつ対話的なIPythonセッションを活用することによって,実際のワークフローをシミュレートする。
コードインタプリタの利用において, CIBench 上で 24 個の LLM の能力を解析し, 将来の LLM に対する貴重な洞察を提供するため, 広範囲にわたる実験を行った。
論文 参考訳(メタデータ) (2024-07-15T07:43:55Z) - ELCoRec: Enhance Language Understanding with Co-Propagation of Numerical and Categorical Features for Recommendation [38.64175351885443]
大規模言語モデルは自然言語処理(NLP)領域で栄えている。
レコメンデーション指向の微調整モデルによって示された知性にもかかわらず、LLMはユーザーの行動パターンを完全に理解するのに苦労している。
既存の作業は、その重要な情報を導入することなく、与えられたテキストデータに対してのみLLMを微調整するだけである。
論文 参考訳(メタデータ) (2024-06-27T01:37:57Z) - Investigating Video Reasoning Capability of Large Language Models with Tropes in Movies [69.28082193942991]
本稿では、これまで見過ごされていた2つの重要なビデオ推論スキルを探索するためのテストベッドとして設計された、新しいデータセットであるTropes in Movies (TiM)を紹介する。
映画ストーリーテリングのトポロジを利用して、TiMは最先端のLCMベースのアプローチの推論能力を評価する。
これらの欠陥に対処するために、FEVoRI(Face-Enhanced Viper of Role Interactions)とConQueR(Context Query Reduction)を提案する。
論文 参考訳(メタデータ) (2024-06-16T12:58:31Z) - CELA: Cost-Efficient Language Model Alignment for CTR Prediction [70.65910069412944]
CTR(Click-Through Rate)予測は、レコメンダシステムにおいて最重要位置を占める。
最近の取り組みは、プレトレーニング言語モデル(PLM)を統合することでこれらの課題を緩和しようとしている。
CTR予測のためのtextbfCost-textbfEfficient textbfLanguage Model textbfAlignment (textbfCELA)を提案する。
論文 参考訳(メタデータ) (2024-05-17T07:43:25Z) - Recommendations by Concise User Profiles from Review Text [24.408292545170944]
この研究は、非常に疎いインタラクションを持つユーザの難解かつ過小評価されたケースに対処する。
LLMを通して全てのレビューの全文をフィードすることは、信号とノイズの比が弱く、処理されたトークンのコストが高くなる。
このフレームワークは、まず簡潔なユーザプロファイルを計算し、これらのみをトランスフォーマーベースのレコメンデータのトレーニングに投入する。
論文 参考訳(メタデータ) (2023-11-02T15:31:12Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - Large Language Models are Few-Shot Summarizers: Multi-Intent Comment
Generation via In-Context Learning [34.006227676170504]
本研究では,大規模言語モデル(LLM)を用いて,開発者の多様な意図を満たすコメントを生成することの実現可能性について検討する。
2つの大規模なデータセットの実験は、私たちの洞察の理論的根拠を示しています。
論文 参考訳(メタデータ) (2023-04-22T12:26:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。