論文の概要: Deep Latent Emotion Network for Multi-Task Learning
- arxiv url: http://arxiv.org/abs/2104.08716v1
- Date: Sun, 18 Apr 2021 04:55:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-22 10:55:47.758593
- Title: Deep Latent Emotion Network for Multi-Task Learning
- Title(参考訳): マルチタスク学習のための深層感情ネットワーク
- Authors: Huangbin Zhang, Chong Zhao, Yu Zhang, Danlei Wang, Haichao Yang
- Abstract要約: 本稿では,フィードを好むユーザの潜伏確率を抽出するディープ潜伏感情ネットワーク(DLEN)モデルを提案する。
DLENはTencent QQ-Small-Worldの実際のマルチタスクフィードレコメンデーションシナリオにデプロイされ、データセットには10億以上のサンプルが含まれている。
オフライン評価ではSOTA MTLモデルよりも大きなパフォーマンスアドバンテージを示し、ビューカウントでは3.2%、本番環境では2.63%と大幅に増加している。
- 参考スコア(独自算出の注目度): 3.211310973369844
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Feed recommendation models are widely adopted by numerous feed platforms to
encourage users to explore the contents they are interested in. However, most
of the current research simply focus on targeting user's preference and lack
in-depth study of avoiding objectionable contents to be frequently recommended,
which is a common reason that let user detest. To address this issue, we
propose a Deep Latent Emotion Network (DLEN) model to extract latent
probability of a user preferring a feed by modeling multiple targets with
semi-supervised learning. With this method, the conflicts of different targets
are successfully reduced in the training phase, which improves the training
accuracy of each target effectively. Besides, by adding this latent state of
user emotion to multi-target fusion, the model is capable of decreasing the
probability to recommend objectionable contents to improve user retention and
stay time during online testing phase. DLEN is deployed on a real-world
multi-task feed recommendation scenario of Tencent QQ-Small-World with a
dataset containing over a billion samples, and it exhibits a significant
performance advantage over the SOTA MTL model in offline evaluation, together
with a considerable increase by 3.02% in view-count and 2.63% in user stay-time
in production. Complementary offline experiments of DLEN model on a public
dataset also repeat improvements in various scenarios. At present, DLEN model
has been successfully deployed in Tencent's feed recommendation system.
- Abstract(参考訳): フィードレコメンデーションモデルは多くのフィードプラットフォームで広く採用されており、ユーザーが興味のあるコンテンツを探索するよう促している。
しかし、現在の研究の多くは単にユーザの好みをターゲットにすることに集中しており、頻繁に推奨される不快なコンテンツを避けるための詳細な研究は欠如している。
そこで本研究では,複数のターゲットを半教師付き学習でモデル化することにより,フィードを優先するユーザの潜伏確率を抽出する深層感情ネットワーク(DLEN)モデルを提案する。
これにより、訓練段階において異なる目標の衝突を効果的に低減し、各目標の訓練精度を効果的に向上させる。
さらに,マルチターゲット融合にユーザ感情の潜伏状態を加えることで,好ましくないコンテンツを推薦する確率を低減し,オンラインテスト期間中にユーザの保持と滞在時間を改善することができる。
DLENはTencent QQ-Small-Worldの現実のマルチタスクフィードレコメンデーションシナリオに10億以上のサンプルを含むデータセットでデプロイされており、オフライン評価ではSOTA MTLモデルに対して大きなパフォーマンス上の優位性を示し、ビューカウントは3.02%、本番環境では2.63%と大幅に増加している。
パブリックデータセット上のDLENモデルの補完的なオフライン実験も、さまざまなシナリオで改善を繰り返している。
現在、DLENモデルはTencentのフィードレコメンデーションシステムにうまくデプロイされている。
関連論文リスト
- Deep Bayesian Active Learning for Preference Modeling in Large Language Models [84.817400962262]
本稿では,BAL-PM(Bayesian Active Learner for Preference Modeling)を提案する。
BAL-PMは2つの人気のある人間の嗜好データセットにおいて、好みラベルを33%から68%少なくし、以前のベイズ買収ポリシーを超えている。
我々の実験では、BAL-PMは2つの人気のある人選好データセットにおいて33%から68%の選好ラベルを必要としており、ベイズ買収ポリシーを上回ります。
論文 参考訳(メタデータ) (2024-06-14T13:32:43Z) - Diversified Batch Selection for Training Acceleration [68.67164304377732]
オンラインバッチ選択として知られる一般的な研究ラインでは、トレーニングプロセス中の情報サブセットの選択について検討している。
バニラ参照モデルフリーメソッドは、独立してデータをサンプリング的にスコア付けし、選択する。
DivBS(Diversified Batch Selection)を提案する。
論文 参考訳(メタデータ) (2024-06-07T12:12:20Z) - Combating Missing Modalities in Egocentric Videos at Test Time [92.38662956154256]
現実のアプリケーションは、プライバシの懸念、効率性の必要性、ハードウェアの問題により、不完全なモダリティを伴う問題に直面することが多い。
再トレーニングを必要とせずに,テスト時にこの問題に対処する新しい手法を提案する。
MiDlは、欠落したモダリティをテスト時にのみ扱う、自己管理型のオンラインソリューションとしては初めてのものだ。
論文 参考訳(メタデータ) (2024-04-23T16:01:33Z) - Boosting Continual Learning of Vision-Language Models via Mixture-of-Experts Adapters [65.15700861265432]
本稿では,視覚言語モデルを用いた漸進的学習における長期的忘れを緩和するパラメータ効率の連続学習フレームワークを提案する。
提案手法では,Mixture-of-Experts (MoE)アダプタの統合により,事前学習したCLIPモデルの動的拡張を行う。
視覚言語モデルのゼロショット認識能力を維持するために,分布判別オートセレクタを提案する。
論文 参考訳(メタデータ) (2024-03-18T08:00:23Z) - When Measures are Unreliable: Imperceptible Adversarial Perturbations
toward Top-$k$ Multi-Label Learning [83.8758881342346]
新しい損失関数は、視覚的および測定的不受容性を両立できる敵の摂動を生成するために考案された。
大規模ベンチマークデータセットを用いた実験により,提案手法が最上位の$kのマルチラベルシステムを攻撃する際の優位性を実証した。
論文 参考訳(メタデータ) (2023-07-27T13:18:47Z) - Frugal Reinforcement-based Active Learning [12.18340575383456]
本稿では,ラベル効率向上のための新しい能動的学習手法を提案する。
提案手法は反復的であり,多様性,表現性,不確実性の基準を混合した制約対象関数の最小化を目的としている。
また、強化学習に基づく新たな重み付け機構を導入し、各トレーニングイテレーションでこれらの基準を適応的にバランスさせる。
論文 参考訳(メタデータ) (2022-12-09T14:17:45Z) - Multi-Task Fusion via Reinforcement Learning for Long-Term User
Satisfaction in Recommender Systems [3.4394890850129007]
バッチ強化学習に基づくマルチタスク融合フレームワーク(BatchRL-MTF)を提案する。
我々は、長期ユーザー満足のために、固定バッチデータから最適なレコメンデーションポリシーをオフラインで学習する。
ユーザの行動に関する包括的調査により,ユーザの定着度とユーザ活動性の2つの側面から,ユーザ満足度報酬を微妙にモデル化する。
論文 参考訳(メタデータ) (2022-08-09T06:35:05Z) - WSLRec: Weakly Supervised Learning for Neural Sequential Recommendation
Models [24.455665093145818]
我々は、WSLRecと呼ばれる新しいモデルに依存しないトレーニング手法を提案し、3段階のフレームワーク(事前学習、トップ$k$マイニング、本質的、微調整)を採用する。
WSLRec は、BR や ItemCF のようなモデルフリーメソッドから、余分な弱い監督のモデルを事前訓練することで、不完全性の問題を解決すると同時に、最上位の$k のマイニングを活用して、微調整のための弱い監督の信頼性の高いユーザ・イテム関連を検査することで、不正確な問題を解消する。
論文 参考訳(メタデータ) (2022-02-28T08:55:12Z) - Active Learning for Deep Visual Tracking [51.5063680734122]
畳み込みニューラルネットワーク(CNN)は近年,単一目標追跡タスクに成功している。
本稿では,ディープ・ビジュアル・トラッキングのためのアクティブ・ラーニング手法を提案する。
アクティブラーニングの指導のもと、トレーニングされた深層CNNモデルに基づくトラッカーは、ラベリングコストを低減しつつ、競合的なトラッキング性能を達成することができる。
論文 参考訳(メタデータ) (2021-10-17T11:47:56Z) - Self-Supervised Contrastive Learning for Efficient User Satisfaction
Prediction in Conversational Agents [35.2098736872247]
ユーザとエージェントのインタラクションを学習するための,自己指導型コントラスト学習手法を提案する。
自己教師対象を用いた事前学習モデルは,ユーザ満足度予測に転送可能であることを示す。
また、非常に小さなサンプルサイズに対して、より優れた転送性を確保するために、新しい数発の転送学習手法を提案する。
論文 参考訳(メタデータ) (2020-10-21T18:10:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。