論文の概要: LLM-Powered Nuanced Video Attribute Annotation for Enhanced Recommendations
- arxiv url: http://arxiv.org/abs/2510.06657v1
- Date: Wed, 08 Oct 2025 05:17:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.309164
- Title: LLM-Powered Nuanced Video Attribute Annotation for Enhanced Recommendations
- Title(参考訳): 拡張レコメンデーションのためのLDMを利用したNuanced Video Attribute Annotation
- Authors: Boyuan Long, Yueqi Wang, Hiloni Mehta, Mick Zomnir, Omkar Pathak, Changping Meng, Ruolin Jia, Yajun Peng, Dapeng Hong, Xia Wu, Mingyan Gao, Onkar Dalal, Ningren Han,
- Abstract要約: 本稿では,Large Language Models (LLMs) の展開を,ニュアンスのあるコンテンツ理解を実現するための「アノテーション」機構として活用するケーススタディを提案する。
LLM-as-annotators"アプローチは、開発時間を著しく短縮し、微妙な属性のアノテーションを有効にすることで、これらの問題に対処する。
- 参考スコア(独自算出の注目度): 3.461479036524523
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper presents a case study on deploying Large Language Models (LLMs) as an advanced "annotation" mechanism to achieve nuanced content understanding (e.g., discerning content "vibe") at scale within a large-scale industrial short-form video recommendation system. Traditional machine learning classifiers for content understanding face protracted development cycles and a lack of deep, nuanced comprehension. The "LLM-as-annotators" approach addresses these by significantly shortening development times and enabling the annotation of subtle attributes. This work details an end-to-end workflow encompassing: (1) iterative definition and robust evaluation of target attributes, refined by offline metrics and online A/B testing; (2) scalable offline bulk annotation of video corpora using LLMs with multimodal features, optimized inference, and knowledge distillation for broad application; and (3) integration of these rich annotations into the online recommendation serving system, for example, through personalized restrict retrieval. Experimental results demonstrate the efficacy of this approach, with LLMs outperforming human raters in offline annotation quality for nuanced attributes and yielding significant improvements of user participation and satisfied consumption in online A/B tests. The study provides insights into designing and scaling production-level LLM pipelines for rich content evaluation, highlighting the adaptability and benefits of LLM-generated nuanced understanding for enhancing content discovery, user satisfaction, and the overall effectiveness of modern recommendation systems.
- Abstract(参考訳): 本稿では,大規模産業用ショートフォームビデオレコメンデーションシステムにおいて,広範言語モデル(LLM)を高度な「アノテーション」機構として展開し,ニュアンス付きコンテンツ理解(例えば,コンテンツ"ビブ"の識別)を大規模に実現するケーススタディを提案する。
コンテンツ理解のための伝統的な機械学習分類器は、発達サイクルが引き延ばされ、深い、曖昧な理解が欠如している。
LLM-as-annotators"アプローチは、開発時間を著しく短縮し、微妙な属性のアノテーションを有効にすることで、これらの問題に対処する。
本研究は,(1)オフラインメトリクスとオンラインA/Bテストによる目標属性の反復的定義とロバストな評価,(2)マルチモーダルな特徴を持つLLMを用いたビデオコーパスのスケーラブルなオフラインバルクアノテーション,最適化推論,広範アプリケーションのための知識蒸留,(3)オンラインリコメンデーションサービスシステムへのこれらのリッチアノテーションの統合,などを含むエンド・ツー・エンドのワークフローを詳述する。
提案手法の有効性を実験的に示し, オンラインA/Bテストにおいて, LLMは, オフラインのアノテーション品質において人間のラッカーより優れ, ユーザの参加率や満足度が大幅に向上した。
この研究は、リッチコンテンツ評価のためのプロダクションレベルのLLMパイプラインの設計とスケーリングに関する洞察を提供し、コンテンツ発見、ユーザ満足度、モダンレコメンデーションシステムの全体的な有効性を高めるため、LLM生成したニュアンスド理解の適応性とメリットを強調した。
関連論文リスト
- Large Language Models Enhanced by Plug and Play Syntactic Knowledge for Aspect-based Sentiment Analysis [18.58619664067155]
アスペクトベースの感情分析(ABSA)は一般的に文脈情報の深い理解を必要とする。
本稿では,構文情報を記録し,言語モデル(LLM)に組み込まれ,感情極性の予測を指示するメモリモジュールを提案する。
論文 参考訳(メタデータ) (2025-06-15T23:16:12Z) - Reinforcement Learning Tuning for VideoLLMs: Reward Design and Data Efficiency [56.475612147721264]
本稿では、離散的かつ連続的な報酬信号を通して意味的推論と時間的推論の両方を監督する二重回帰定式化を提案する。
我々は,ビデオQA,テンポラルビデオグラウンディング,グラウンドドビデオQAを含む8つの代表的なビデオ理解タスクに対するアプローチを評価した。
その結果、MLLMを用いた推論中心のビデオ理解の進展において、報酬設計とデータ選択の重要性が浮き彫りになった。
論文 参考訳(メタデータ) (2025-06-02T17:28:26Z) - Utility-Focused LLM Annotation for Retrieval and Retrieval-Augmented Generation [96.18720164390699]
本稿では,大規模言語モデル (LLM) を用いた検索・検索・拡張生成システム (RAG) の訓練における文書ユーティリティのアノテートについて検討する。
以上の結果から,LLM生成アノテーションは,人間のアノテーションや下流QAメトリクスのみを訓練したモデルと比較して,ドメイン外検索性能の向上とRAG結果の改善を図っている。
論文 参考訳(メタデータ) (2025-04-07T16:05:52Z) - From Human Annotation to LLMs: SILICON Annotation Workflow for Management Research [13.818244562506138]
LLM(Large Language Models)は、人間のアノテーションに対する費用対効果と効率的な代替手段を提供する。
本稿では、SILICON (Systematic Inference with LLMs for Information Classification and Notation) ワークフローを紹介する。
このワークフローは、人間のアノテーションの確立した原則と、体系的な迅速な最適化とモデル選択を統合している。
論文 参考訳(メタデータ) (2024-12-19T02:21:41Z) - Elevating Visual Perception in Multimodal LLMs with Auxiliary Embedding Distillation [109.5893580175657]
近年,MLLMの開発における標準的な実践は,視覚エンコーダの機能をLLMに供給し,自然言語による指導を施すことである。
このアプローチは、しばしばモデルが言語理解に傾き、データに存在するリッチな視覚知覚信号を損なう。
本稿では,視覚知識をエキスパートビジョンエンコーダからLLMの隠れ表現に注入する最初のアプローチであるVisPer-LMを提案する。
論文 参考訳(メタデータ) (2024-12-12T18:55:18Z) - Efficiency Unleashed: Inference Acceleration for LLM-based Recommender Systems with Speculative Decoding [61.45448947483328]
LLMベースのレコメンダシステム(LASER)の投機的復号化によるロスレス高速化について紹介する。
LASERは、検索効率を高めるためのカスタマイズされた検索プールと、ドラフトトークンの受け入れ率を改善するための緩和検証を備えている。
LASERは公開データセットの3~5倍のスピードアップを実現し、オンラインA/Bテスト中に約67%の計算リソースを節約する。
論文 参考訳(メタデータ) (2024-08-11T02:31:13Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - ONCE: Boosting Content-based Recommendation with Both Open- and
Closed-source Large Language Models [39.193602991105]
大規模言語モデル(LLM)は、事前学習から深い意味理解と広範な知識を持っている。
我々は、コンテンツベースのレコメンデーションを強化するために、オープンソースLLMとクローズドソースLLMの両方を活用する可能性を探る。
既存の最先端レコメンデーションモデルと比較して, 最大19.32%の大幅な改善が見られた。
論文 参考訳(メタデータ) (2023-05-11T04:51:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。