論文の概要: Research on Short-Video Platform User Decision-Making via Multimodal Temporal Modeling and Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2509.12269v1
- Date: Sat, 13 Sep 2025 16:28:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.666268
- Title: Research on Short-Video Platform User Decision-Making via Multimodal Temporal Modeling and Reinforcement Learning
- Title(参考訳): マルチモーダル時間モデリングと強化学習によるショートビデオプラットフォームユーザ意思決定に関する研究
- Authors: Jinmeiyang Wang, Jing Dong, Li Zhou,
- Abstract要約: 本稿では,Transformer, Temporal Graph Neural Network (TGNN), Deep Q-Network (DQN)を統合したMT-DQNモデルを提案する。
実験の結果、MT-DQNは従来の強化学習モデルより一貫して優れていた。
- 参考スコア(独自算出の注目度): 4.84025144156591
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes the MT-DQN model, which integrates a Transformer, Temporal Graph Neural Network (TGNN), and Deep Q-Network (DQN) to address the challenges of predicting user behavior and optimizing recommendation strategies in short-video environments. Experiments demonstrated that MT-DQN consistently outperforms traditional concatenated models, such as Concat-Modal, achieving an average F1-score improvement of 10.97% and an average NDCG@5 improvement of 8.3%. Compared to the classic reinforcement learning model Vanilla-DQN, MT-DQN reduces MSE by 34.8% and MAE by 26.5%. Nonetheless, we also recognize challenges in deploying MT-DQN in real-world scenarios, such as its computational cost and latency sensitivity during online inference, which will be addressed through future architectural optimization.
- Abstract(参考訳): 本稿では,Transformer, Temporal Graph Neural Network (TGNN), Deep Q-Network (DQN)を統合したMT-DQNモデルを提案する。
実験の結果、MT-DQNはConcat-Modalのような従来の連結モデルよりも一貫して優れており、F1スコアの10.97%、NDCG@5の平均8.3%向上を達成した。
古典的な強化学習モデルであるVanilla-DQNと比較して、MT-DQNはMSEを34.8%、MAEを26.5%削減している。
それにもかかわらず、MT-DQNを現実のシナリオにデプロイする際の課題、例えば、オンライン推論における計算コストや遅延感度は、将来のアーキテクチャ最適化によって解決される。
関連論文リスト
- An Efficient GNNs-to-KANs Distillation via Self-Attention Dynamic Sampling with Potential for Consumer Electronics Edge Deployment [12.385364522094612]
本稿では,グラフネットワークからコルモゴロフ・アルノルドネットワーク(KAN)への知識蒸留のための革新的な枠組みを紹介する。
学習可能な周波数ベースと位相シフト機構を組み込むことにより、FR-KANは計算複雑性を効果的に低減しつつ、その非線形適合性を著しく改善する。
6つの実世界のデータセットで実施された実験では、SA-DSDは3つのGNN教師モデルより3.05%-3.62%、FR-KAN+モデルより15.61%の性能向上を達成した。
論文 参考訳(メタデータ) (2025-08-30T16:53:42Z) - Accelerated Test-Time Scaling with Model-Free Speculative Sampling [58.69141724095398]
STAND(Stochastic Adaptive N-gram Drafting)は,新しいモデルフリーな投機的デコード手法である。
従来の自己回帰復号法と比較して,STANDは推論遅延を60~65%削減することを示した。
モデルフリーのアプローチとして、STANDは追加のトレーニングなしで既存の言語モデルに適用できる。
論文 参考訳(メタデータ) (2025-06-05T07:31:18Z) - MT-NAM: An Efficient and Adaptive Model for Epileptic Seizure Detection [51.87482627771981]
マイクロツリーベースNAM(MT-NAM)は,最近提案されたニューラル付加モデル(NAM)に基づく蒸留モデルである。
MT-NAMは、標準のNAMと比較して、精度を損なうことなく、100$Times$の推論速度の向上を実現している。
今回我々はCHB-MITの頭皮脳波データを用いて,セッション数や発作回数の異なる24例の脳波データについて検討した。
論文 参考訳(メタデータ) (2025-03-11T10:14:53Z) - MCDFN: Supply Chain Demand Forecasting via an Explainable Multi-Channel Data Fusion Network Model [0.0]
CNN,Long Short-Term Memory Network (LSTM), Gated Recurrent Units (GRU)を統合したハイブリッドアーキテクチャであるMulti-Channel Data Fusion Network (MCDFN)を紹介する。
我々の比較ベンチマークは、MCDFNが他の7つのディープラーニングモデルより優れていることを示している。
本研究は,需要予測手法を進歩させ,MCDFNをサプライチェーンシステムに統合するための実践的ガイドラインを提供する。
論文 参考訳(メタデータ) (2024-05-24T14:30:00Z) - Consistency Trajectory Models: Learning Probability Flow ODE Trajectory of Diffusion [56.38386580040991]
Consistency Trajectory Model (CTM) は Consistency Models (CM) の一般化である
CTMは、対戦訓練とスコアマッチング損失を効果的に組み合わせることで、パフォーマンスを向上させる。
CMとは異なり、CTMのスコア関数へのアクセスは、確立された制御可能/条件生成メソッドの採用を合理化することができる。
論文 参考訳(メタデータ) (2023-10-01T05:07:17Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - RNN-T Models Fail to Generalize to Out-of-Domain Audio: Causes and
Solutions [73.45995446500312]
ストリーミングおよび非ストリーミングリカレントニューラルネットワークトランスデューサ(RNN-T)のエンド・ツー・エンドモデルにおける一般化特性を解析した。
トレーニング中に複数の正規化手法を組み合わせる方法と,動的重複推論を用いる方法を提案する。
論文 参考訳(メタデータ) (2020-05-07T06:24:47Z) - Towards a Competitive End-to-End Speech Recognition for CHiME-6 Dinner
Party Transcription [73.66530509749305]
本稿では,難しい場合であっても,ハイブリッドベースラインに近い性能を示すエンドツーエンドアプローチについて論じる。
CTC-Attention と RNN-Transducer のアプローチと RNN と Transformer のアーキテクチャを比較し,解析する。
RNN-Transducerをベースとしたベストエンド・ツー・エンドモデルでは、ビームサーチの改善とともに、LF-MMI TDNN-F CHiME-6 Challengeのベースラインよりも品質が3.8%向上した。
論文 参考訳(メタデータ) (2020-04-22T19:08:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。