論文の概要: Deep Latent Emotion Network for Multi-Task Learning
- arxiv url: http://arxiv.org/abs/2104.08716v1
- Date: Sun, 18 Apr 2021 04:55:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-22 10:55:47.758593
- Title: Deep Latent Emotion Network for Multi-Task Learning
- Title(参考訳): マルチタスク学習のための深層感情ネットワーク
- Authors: Huangbin Zhang, Chong Zhao, Yu Zhang, Danlei Wang, Haichao Yang
- Abstract要約: 本稿では,フィードを好むユーザの潜伏確率を抽出するディープ潜伏感情ネットワーク(DLEN)モデルを提案する。
DLENはTencent QQ-Small-Worldの実際のマルチタスクフィードレコメンデーションシナリオにデプロイされ、データセットには10億以上のサンプルが含まれている。
オフライン評価ではSOTA MTLモデルよりも大きなパフォーマンスアドバンテージを示し、ビューカウントでは3.2%、本番環境では2.63%と大幅に増加している。
- 参考スコア(独自算出の注目度): 3.211310973369844
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Feed recommendation models are widely adopted by numerous feed platforms to
encourage users to explore the contents they are interested in. However, most
of the current research simply focus on targeting user's preference and lack
in-depth study of avoiding objectionable contents to be frequently recommended,
which is a common reason that let user detest. To address this issue, we
propose a Deep Latent Emotion Network (DLEN) model to extract latent
probability of a user preferring a feed by modeling multiple targets with
semi-supervised learning. With this method, the conflicts of different targets
are successfully reduced in the training phase, which improves the training
accuracy of each target effectively. Besides, by adding this latent state of
user emotion to multi-target fusion, the model is capable of decreasing the
probability to recommend objectionable contents to improve user retention and
stay time during online testing phase. DLEN is deployed on a real-world
multi-task feed recommendation scenario of Tencent QQ-Small-World with a
dataset containing over a billion samples, and it exhibits a significant
performance advantage over the SOTA MTL model in offline evaluation, together
with a considerable increase by 3.02% in view-count and 2.63% in user stay-time
in production. Complementary offline experiments of DLEN model on a public
dataset also repeat improvements in various scenarios. At present, DLEN model
has been successfully deployed in Tencent's feed recommendation system.
- Abstract(参考訳): フィードレコメンデーションモデルは多くのフィードプラットフォームで広く採用されており、ユーザーが興味のあるコンテンツを探索するよう促している。
しかし、現在の研究の多くは単にユーザの好みをターゲットにすることに集中しており、頻繁に推奨される不快なコンテンツを避けるための詳細な研究は欠如している。
そこで本研究では,複数のターゲットを半教師付き学習でモデル化することにより,フィードを優先するユーザの潜伏確率を抽出する深層感情ネットワーク(DLEN)モデルを提案する。
これにより、訓練段階において異なる目標の衝突を効果的に低減し、各目標の訓練精度を効果的に向上させる。
さらに,マルチターゲット融合にユーザ感情の潜伏状態を加えることで,好ましくないコンテンツを推薦する確率を低減し,オンラインテスト期間中にユーザの保持と滞在時間を改善することができる。
DLENはTencent QQ-Small-Worldの現実のマルチタスクフィードレコメンデーションシナリオに10億以上のサンプルを含むデータセットでデプロイされており、オフライン評価ではSOTA MTLモデルに対して大きなパフォーマンス上の優位性を示し、ビューカウントは3.02%、本番環境では2.63%と大幅に増加している。
パブリックデータセット上のDLENモデルの補完的なオフライン実験も、さまざまなシナリオで改善を繰り返している。
現在、DLENモデルはTencentのフィードレコメンデーションシステムにうまくデプロイされている。
関連論文リスト
- When Measures are Unreliable: Imperceptible Adversarial Perturbations
toward Top-$k$ Multi-Label Learning [83.8758881342346]
新しい損失関数は、視覚的および測定的不受容性を両立できる敵の摂動を生成するために考案された。
大規模ベンチマークデータセットを用いた実験により,提案手法が最上位の$kのマルチラベルシステムを攻撃する際の優位性を実証した。
論文 参考訳(メタデータ) (2023-07-27T13:18:47Z) - Frugal Reinforcement-based Active Learning [12.18340575383456]
本稿では,ラベル効率向上のための新しい能動的学習手法を提案する。
提案手法は反復的であり,多様性,表現性,不確実性の基準を混合した制約対象関数の最小化を目的としている。
また、強化学習に基づく新たな重み付け機構を導入し、各トレーニングイテレーションでこれらの基準を適応的にバランスさせる。
論文 参考訳(メタデータ) (2022-12-09T14:17:45Z) - Meta-Learning with Self-Improving Momentum Target [72.98879709228981]
メタラーナーの性能を向上させるために,SiMT(Self-improving Momentum Target)を提案する。
SiMTはメタラーナーの時間アンサンブルから適応してターゲットモデルを生成する。
我々は、SiMTが幅広いメタ学習手法と組み合わせることで、大きなパフォーマンス向上をもたらすことを示す。
論文 参考訳(メタデータ) (2022-10-11T06:45:15Z) - Multi-Task Fusion via Reinforcement Learning for Long-Term User
Satisfaction in Recommender Systems [3.4394890850129007]
バッチ強化学習に基づくマルチタスク融合フレームワーク(BatchRL-MTF)を提案する。
我々は、長期ユーザー満足のために、固定バッチデータから最適なレコメンデーションポリシーをオフラインで学習する。
ユーザの行動に関する包括的調査により,ユーザの定着度とユーザ活動性の2つの側面から,ユーザ満足度報酬を微妙にモデル化する。
論文 参考訳(メタデータ) (2022-08-09T06:35:05Z) - Dynamic Contrastive Distillation for Image-Text Retrieval [90.05345397400144]
画像テキスト検索モデルを圧縮するための新しいプラグイン動的コントラスト蒸留(DCD)フレームワークを提案する。
提案したDCD戦略を2つの最先端の視覚言語事前訓練モデル、すなわち ViLT と METER に適用することに成功している。
MS-COCOとFlickr30Kベンチマークの実験では、DCDフレームワークの有効性と効率が示されている。
論文 参考訳(メタデータ) (2022-07-04T14:08:59Z) - WSLRec: Weakly Supervised Learning for Neural Sequential Recommendation
Models [24.455665093145818]
我々は、WSLRecと呼ばれる新しいモデルに依存しないトレーニング手法を提案し、3段階のフレームワーク(事前学習、トップ$k$マイニング、本質的、微調整)を採用する。
WSLRec は、BR や ItemCF のようなモデルフリーメソッドから、余分な弱い監督のモデルを事前訓練することで、不完全性の問題を解決すると同時に、最上位の$k のマイニングを活用して、微調整のための弱い監督の信頼性の高いユーザ・イテム関連を検査することで、不正確な問題を解消する。
論文 参考訳(メタデータ) (2022-02-28T08:55:12Z) - Active Learning for Deep Visual Tracking [51.5063680734122]
畳み込みニューラルネットワーク(CNN)は近年,単一目標追跡タスクに成功している。
本稿では,ディープ・ビジュアル・トラッキングのためのアクティブ・ラーニング手法を提案する。
アクティブラーニングの指導のもと、トレーニングされた深層CNNモデルに基づくトラッカーは、ラベリングコストを低減しつつ、競合的なトラッキング性能を達成することができる。
論文 参考訳(メタデータ) (2021-10-17T11:47:56Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - Self-Supervised Contrastive Learning for Efficient User Satisfaction
Prediction in Conversational Agents [35.2098736872247]
ユーザとエージェントのインタラクションを学習するための,自己指導型コントラスト学習手法を提案する。
自己教師対象を用いた事前学習モデルは,ユーザ満足度予測に転送可能であることを示す。
また、非常に小さなサンプルサイズに対して、より優れた転送性を確保するために、新しい数発の転送学習手法を提案する。
論文 参考訳(メタデータ) (2020-10-21T18:10:58Z) - Ask-n-Learn: Active Learning via Reliable Gradient Representations for
Image Classification [29.43017692274488]
深い予測モデルは、ラベル付きトレーニングデータという形で人間の監督に依存する。
Ask-n-Learnは,各アルゴリズムで推定されたペスドラベルを用いて得られる勾配埋め込みに基づく能動的学習手法である。
論文 参考訳(メタデータ) (2020-09-30T05:19:56Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。