論文の概要: Comment Staytime Prediction with LLM-enhanced Comment Understanding
- arxiv url: http://arxiv.org/abs/2504.01602v1
- Date: Wed, 02 Apr 2025 11:09:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:17:47.492480
- Title: Comment Staytime Prediction with LLM-enhanced Comment Understanding
- Title(参考訳): LLMによるコメント理解によるコメント待ち時間予測
- Authors: Changshuo Zhang, Zihan Lin, Shukai Liu, Yongqi Liu, Han Li,
- Abstract要約: ユーザーエンゲージメントの鍵となる要素は、ユーザーがコメントを閲覧して投稿する時間を指す、滞在時間である。
既存の監視時間予測手法は、個々のコメントとのインタラクションを見渡すことで、滞在時間予測に適応するのに苦労する。
コメント理解(LCU)を用いたコメント滞在予測のための実践的枠組みを提案する。
- 参考スコア(独自算出の注目度): 15.090380492596754
- License:
- Abstract: In modern online streaming platforms, the comments section plays a critical role in enhancing the overall user experience. Understanding user behavior within the comments section is essential for comprehensive user interest modeling. A key factor of user engagement is staytime, which refers to the amount of time that users browse and post comments. Existing watchtime prediction methods struggle to adapt to staytime prediction, overlooking interactions with individual comments and their interrelation. In this paper, we present a micro-video recommendation dataset with video comments (named as KuaiComt) which is collected from Kuaishou platform. correspondingly, we propose a practical framework for comment staytime prediction with LLM-enhanced Comment Understanding (LCU). Our framework leverages the strong text comprehension capabilities of large language models (LLMs) to understand textual information of comments, while also incorporating fine-grained comment ranking signals as auxiliary tasks. The framework is two-staged: first, the LLM is fine-tuned using domain-specific tasks to bridge the video and the comments; second, we incorporate the LLM outputs into the prediction model and design two comment ranking auxiliary tasks to better understand user preference. Extensive offline experiments demonstrate the effectiveness of our framework, showing significant improvements on the task of comment staytime prediction. Additionally, online A/B testing further validates the practical benefits on industrial scenario. Our dataset KuaiComt (https://github.com/lyingCS/KuaiComt.github.io) and code for LCU (https://github.com/lyingCS/LCU) are fully released.
- Abstract(参考訳): 現代のオンラインストリーミングプラットフォームでは、コメントセクションは全体のユーザーエクスペリエンスを向上させる上で重要な役割を果たす。
コメントセクション内でのユーザの振る舞いを理解することは、包括的なユーザ関心モデリングに不可欠である。
ユーザーエンゲージメントの鍵となる要素は、ユーザーがコメントを閲覧して投稿する時間を指す、滞在時間である。
既存の監視時間予測手法は、個々のコメントとのインタラクションとそれらの相互関係を見渡すことで、滞在時間予測に適応するのに苦労する。
本稿では,Kuaishouプラットフォームから収集したビデオコメント(KuaiComt)を用いたマイクロビデオレコメンデーションデータセットを提案する。
そこで本研究では,LLM強化コメント理解(LCU)を用いたコメント滞在時間予測の実践的枠組みを提案する。
本フレームワークは,大規模言語モデル(LLM)の強力なテキスト理解機能を活用して,コメントのテキスト情報を理解するとともに,詳細なコメントランキング信号を補助タスクとして組み込む。
まず、LLMの出力を予測モデルに組み込んで、2つのコメントランキング補助タスクを設計し、ユーザの好みをよりよく理解する。
大規模なオフライン実験により,本フレームワークの有効性が実証され,コメント滞在時間予測のタスクに大幅な改善が見られた。
さらに、オンラインA/Bテストは、産業シナリオにおける実践的なメリットをさらに検証する。
我々のデータセット KuaiComt (https://github.com/lyingCS/KuaiComt.github.io) と LCU (https://github.com/lyingCS/LCU) 用のコードは完全にリリースされています。
関連論文リスト
- Temporal Context Consistency Above All: Enhancing Long-Term Anticipation by Learning and Enforcing Temporal Constraints [4.880243880711163]
本稿では,初期未トリミング映像区間の観察から,動画中の動作ラベルとその持続時間を予測する手法を提案する。
並列デコーディングを備えたエンコーダ・デコーダアーキテクチャ上に構築し,2つの重要なコントリビューションを行う。
LTA,EpicKitchen-55,EGTEA+,50Salads,Breakfastの4つのベンチマークデータセットに対して,本手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-12-27T03:29:10Z) - BoViLA: Bootstrapping Video-Language Alignment via LLM-Based Self-Questioning and Answering [14.18251228789751]
自己調査と回答を通じて,学習中の質問サンプルを増強する自己学習フレームワークであるBoViLAを提案する。
我々は,不確実性を推定し,自己生成質問の品質を評価するために,Evidential Deep Learning (EDL)を導入した。
論文 参考訳(メタデータ) (2024-09-17T05:17:37Z) - CIBench: Evaluating Your LLMs with a Code Interpreter Plugin [68.95137938214862]
データサイエンスタスクにコードインタプリタを利用するLLMの能力を総合的に評価する,CIBenchという対話型評価フレームワークを提案する。
評価データセットは,LLM-人的協調手法を用いて構築され,連続的かつ対話的なIPythonセッションを活用することによって,実際のワークフローをシミュレートする。
コードインタプリタの利用において, CIBench 上で 24 個の LLM の能力を解析し, 将来の LLM に対する貴重な洞察を提供するため, 広範囲にわたる実験を行った。
論文 参考訳(メタデータ) (2024-07-15T07:43:55Z) - ELCoRec: Enhance Language Understanding with Co-Propagation of Numerical and Categorical Features for Recommendation [38.64175351885443]
大規模言語モデルは自然言語処理(NLP)領域で栄えている。
レコメンデーション指向の微調整モデルによって示された知性にもかかわらず、LLMはユーザーの行動パターンを完全に理解するのに苦労している。
既存の作業は、その重要な情報を導入することなく、与えられたテキストデータに対してのみLLMを微調整するだけである。
論文 参考訳(メタデータ) (2024-06-27T01:37:57Z) - Investigating Video Reasoning Capability of Large Language Models with Tropes in Movies [69.28082193942991]
本稿では、これまで見過ごされていた2つの重要なビデオ推論スキルを探索するためのテストベッドとして設計された、新しいデータセットであるTropes in Movies (TiM)を紹介する。
映画ストーリーテリングのトポロジを利用して、TiMは最先端のLCMベースのアプローチの推論能力を評価する。
これらの欠陥に対処するために、FEVoRI(Face-Enhanced Viper of Role Interactions)とConQueR(Context Query Reduction)を提案する。
論文 参考訳(メタデータ) (2024-06-16T12:58:31Z) - CELA: Cost-Efficient Language Model Alignment for CTR Prediction [70.65910069412944]
CTR(Click-Through Rate)予測は、レコメンダシステムにおいて最重要位置を占める。
最近の取り組みは、プレトレーニング言語モデル(PLM)を統合することでこれらの課題を緩和しようとしている。
CTR予測のためのtextbfCost-textbfEfficient textbfLanguage Model textbfAlignment (textbfCELA)を提案する。
論文 参考訳(メタデータ) (2024-05-17T07:43:25Z) - Teaching Human Behavior Improves Content Understanding Abilities Of LLMs [56.574610730939646]
受信者の振る舞いに関するLLMのトレーニングは、コンテンツ理解能力の向上に役立つ。
この性能は、26のベンチマークデータセット上で46以上のビデオおよび画像理解タスクで向上する。
我々は、複数のプラットフォームから収集された750kの画像やビデオのレシーバ動作のクリーン化コメントやお気に入りを、インストラクションチューニングデータとともにリリースする。
論文 参考訳(メタデータ) (2024-05-02T02:04:01Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - Large Language Models are Few-Shot Summarizers: Multi-Intent Comment
Generation via In-Context Learning [34.006227676170504]
本研究では,大規模言語モデル(LLM)を用いて,開発者の多様な意図を満たすコメントを生成することの実現可能性について検討する。
2つの大規模なデータセットの実験は、私たちの洞察の理論的根拠を示しています。
論文 参考訳(メタデータ) (2023-04-22T12:26:24Z) - Context-faithful Prompting for Large Language Models [51.194410884263135]
大言語モデル(LLM)は世界事実に関するパラメトリック知識を符号化する。
パラメトリック知識への依存は、文脈的手がかりを見落とし、文脈に敏感なNLPタスクにおいて誤った予測をもたらす可能性がある。
我々は, LLMの文脈的忠実度を, 知識の衝突と, 棄権による予測の2つの側面で評価し, 向上する。
論文 参考訳(メタデータ) (2023-03-20T17:54:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。