論文の概要: Real-Time Trend Prediction via Continually-Aligned LLM Query Generation
- arxiv url: http://arxiv.org/abs/2601.17567v1
- Date: Sat, 24 Jan 2026 19:37:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.992577
- Title: Real-Time Trend Prediction via Continually-Aligned LLM Query Generation
- Title(参考訳): LLMクエリ連続生成によるリアルタイムトレンド予測
- Authors: Zijing Hui, Wenhan Lyu, Shusen Wang, Li Chen, Chu Wang,
- Abstract要約: クエリボリュームの欠如は、システムが新しいトレンドや長いトレンドを特定するのを防ぐ。
本稿では,新しいリアルタイムトレンド予測フレームワークRTTPを紹介する。
RTTPは、ユーザーが発行するのを待つのではなく、ニュースコンテンツから直接検索クエリを生成する。
- 参考スコア(独自算出の注目度): 13.10059052007111
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Trending news detection in low-traffic search environments faces a fundamental cold-start problem, where a lack of query volume prevents systems from identifying emerging or long-tail trends. Existing methods relying on keyword frequency or query spikes are inherently slow and ineffective in these sparse settings, lagging behind real-world shifts in attention. We introduce RTTP, a novel Real-Time Trending Prediction framework that generates search queries directly from news content instead of waiting for users to issue them. RTTP leverages a continual learning LLM (CL-LLM) that converts posts into search-style queries and scores them using engagement strength + creator authority, enabling early trend surfacing before search volume forms. To ensure adaptation without degrading reasoning, we propose Mix-Policy DPO, a new preference-based continual learning approach that combines on-policy stability with off-policy novelty to mitigate catastrophic forgetting during model upgrades. Deployed at production scale on Facebook and Meta AI products, RTTP delivers +91.4% improvement in tail-trend detection precision@500 and +19% query generation accuracy over industry baselines, while sustaining stable performance after multi-week online training. This work demonstrates that LLM-generated synthetic search signals, when aligned and continually updated, unlock timely trend understanding in low-traffic search environments.
- Abstract(参考訳): 低トラフィック検索環境におけるトレンドニュースの検出は、クエリボリュームの欠如によってシステムが新しいトレンドやロングテールトレンドを識別できないという、基本的なコールドスタート問題に直面している。
キーワードの頻度やクェリのスパイクに依存する既存の方法は、これらのスパース設定では本質的に遅く、非効率であり、現実のシフトに遅れを取っている。
本稿では,ニュースコンテンツから直接検索クエリを生成する新しいリアルタイムトレンド予測フレームワークRTTPを紹介する。
RTTP は連続学習 LLM (CL-LLM) を利用して、投稿を検索スタイルのクエリに変換し、エンゲージメントの強さとクリエーターの権威を使ってスコア付けし、検索ボリューム形式の前に早期トレンドを提示する。
そこで本研究では,モデルアップグレード時の破滅的な忘れを軽減し,非政治的安定性と非政治的ノベルティを組み合わせた,新たな嗜好に基づく継続的学習手法であるMix-Policy DPOを提案する。
FacebookとMeta AI製品に実運用規模でデプロイされたRTTPは、テールトレント検出精度@500と+19%のクエリ生成精度を、業界ベースラインに対して+91.4%改善し、複数週間のオンライントレーニング後の安定したパフォーマンスを維持している。
本研究は,LLM生成した合成検索信号が整列し,継続的に更新されると,低トラフィック検索環境における時間的トレンド理解が解き放たれることを示す。
関連論文リスト
- Modeling Uncertainty Trends for Timely Retrieval in Dynamic RAG [35.96258615258145]
本稿では,トークンレベルの不確実性のダイナミクスをモデル化し,最適検索タイミングを決定するトレーニングフリーな手法であるEntropy-Trend Constraint(ETC)を紹介する。
ETCは、検索周波数を減少させながら、強いベースラインを一貫して上回る。
プラグアンドプレイで、モデルに依存しず、既存のデコードパイプラインに簡単に統合できる。
論文 参考訳(メタデータ) (2025-11-13T05:28:02Z) - Succeed or Learn Slowly: Sample Efficient Off-Policy Reinforcement Learning for Mobile App Control [50.316067647636196]
本稿では,モバイルアプリ制御タスクで評価された新規な非政治強化学習アルゴリズムであるSucceed or Learn Slowly (SoLS)を紹介する。
SoLSは、ユーザーインターフェースナビゲーションのための微調整基礎モデルにおいて、非政治的アクター-批判的アプローチを修正することで、サンプル効率を改善する。
我々は、成功した対話から学習を優先するSTR(Success Transition Replay)でSOLSを増強する。
論文 参考訳(メタデータ) (2025-09-01T18:55:27Z) - Can Prompt Difficulty be Online Predicted for Accelerating RL Finetuning of Reasoning Models? [65.18157595903124]
本研究では任意のプロンプトの反復的近似評価について検討する。
Model Predictive Prompt Selection (MoPPS)はベイズにおけるリスク予測フレームワークである。
MoPPSは迅速な困難を確実に予測し、ロールアウトを大幅に削減したトレーニングを加速する。
論文 参考訳(メタデータ) (2025-07-07T03:20:52Z) - Confident or Seek Stronger: Exploring Uncertainty-Based On-device LLM Routing From Benchmarking to Generalization [61.02719787737867]
大規模言語モデル(LLM)はますますエッジデバイスにデプロイされ、民主化されている。
1つの有望な解決策は不確実性に基づくSLMルーティングであり、SLM上での低信頼応答が発生すると、高い要求を強いLCMにオフロードする。
我々は1500以上の設定でSLMからLLMへの不確実性駆動型ルーティング戦略のベンチマークと一般化を包括的に調査する。
論文 参考訳(メタデータ) (2025-02-06T18:59:11Z) - Adversarial Reasoning at Jailbreaking Time [49.70772424278124]
大規模言語モデル(LLM)は、より有能で広く普及している。
テスト時間計算の標準化, 測定, スケーリングの最近の進歩は, ハードタスクにおける高い性能を達成するためにモデルを最適化するための新しい手法を提案する。
本稿では、これらの進歩をジェイルブレイクモデルに応用し、協調LDMから有害な応答を誘発する。
論文 参考訳(メタデータ) (2025-02-03T18:59:01Z) - Adaptive Distraction: Probing LLM Contextual Robustness with Automated Tree Search [76.54475437069395]
大きな言語モデル(LLM)は、意味的に一貫性があるがタスクに依存しないコンテキスト情報に直面している場合、元のパフォーマンスを維持するのに苦労することが多い。
本稿では,木探索に基づく動的散逸生成フレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-03T18:43:36Z) - Are LLMs Prescient? A Continuous Evaluation using Daily News as the Oracle [13.192628306219248]
本研究では,大規模言語モデルの時間的一般化と予測能力を評価するための連続評価手法として,将来の事象予測を提案する。
私たちのベンチマークであるDaily Oracleは、毎日のニュースから質問と回答のペアを自動的に生成します。
論文 参考訳(メタデータ) (2024-11-13T04:20:20Z) - Towards Dynamic Trend Filtering through Trend Point Detection with Reinforcement Learning [19.50321703079894]
我々はマルコフ決定過程(MDP)として定式化されたトレンドポイント検出を提案する。
我々はこれらの重要な点を動的トレンドポイント(DTP)と呼び、それらを補間することでトレンドを抽出する。
DTF-netは、他のトレンドフィルタリングアルゴリズムと比較して、急激な変化を捉えるのに優れていることを示す。
論文 参考訳(メタデータ) (2024-06-06T00:50:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。