論文の概要: Multi-Task Recommendations with Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2302.03328v1
- Date: Tue, 7 Feb 2023 09:11:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-08 17:00:43.956362
- Title: Multi-Task Recommendations with Reinforcement Learning
- Title(参考訳): 強化学習によるマルチタスク勧告
- Authors: Ziru Liu, Jiejie Tian, Qingpeng Cai, Xiangyu Zhao, Jingtong Gao,
Shuchang Liu, Dayou Chen, Tonghao He, Dong Zheng, Peng Jiang, Kun Gai
- Abstract要約: マルチタスク学習(MTL)は、Recommender System(RS)アプリケーションで大きな成功を収めた。
本稿では,動的重みを用いた推薦タスクの損失を組み合わせ,強化学習(RL)強化MTLフレームワークであるRMTLを提案する。
2つの実世界の公開データセットの実験は、最先端のMTLベースのレコメンデーションモデルに対する高いAUCによるRMTLの有効性を示す。
- 参考スコア(独自算出の注目度): 20.587553899753903
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, Multi-task Learning (MTL) has yielded immense success in
Recommender System (RS) applications. However, current MTL-based recommendation
models tend to disregard the session-wise patterns of user-item interactions
because they are predominantly constructed based on item-wise datasets.
Moreover, balancing multiple objectives has always been a challenge in this
field, which is typically avoided via linear estimations in existing works. To
address these issues, in this paper, we propose a Reinforcement Learning (RL)
enhanced MTL framework, namely RMTL, to combine the losses of different
recommendation tasks using dynamic weights. To be specific, the RMTL structure
can address the two aforementioned issues by (i) constructing an MTL
environment from session-wise interactions and (ii) training multi-task
actor-critic network structure, which is compatible with most existing
MTL-based recommendation models, and (iii) optimizing and fine-tuning the MTL
loss function using the weights generated by critic networks. Experiments on
two real-world public datasets demonstrate the effectiveness of RMTL with a
higher AUC against state-of-the-art MTL-based recommendation models.
Additionally, we evaluate and validate RMTL's compatibility and transferability
across various MTL models.
- Abstract(参考訳): 近年,マルチタスク学習 (MTL) はRecommender System (RS) アプリケーションにおいて大きな成功を収めている。
しかしながら、現在のMTLベースのレコメンデーションモデルは、アイテム単位のデータセットに基づいて主に構築されるため、ユーザ-イテムインタラクションのセッションワイドパターンを無視する傾向にある。
さらに、この分野では、複数の目的のバランスをとることが常に課題であり、これは通常、既存の作業における線形推定によって避けられる。
これらの課題に対処するため,本稿では,動的重みを用いた推薦タスクの損失を組み合わせ,強化学習(Reinforcement Learning, RL)強化MTLフレームワーク,すなわちRMTLを提案する。
具体的には、RMTL構造は上記の2つの問題に対処することができる。
(i)セッション間相互作用からmtl環境を構築すること、及び
(II)既存のMTLベースレコメンデーションモデルと互換性のあるマルチタスクアクター批判ネットワーク構造をトレーニングすること。
(iii)批評家ネットワークによる重み付けを用いたmtl損失関数の最適化と微調整
2つの実世界の公開データセットの実験は、最先端のMTLベースのレコメンデーションモデルに対する高いAUCによるRMTLの有効性を示す。
さらに, RMTL の互換性と, 様々な MTL モデル間の転送性を評価し, 評価する。
関連論文リスト
- Multimodal Instruction Tuning with Conditional Mixture of LoRA [54.65520214291653]
本稿では,Low-Rank Adaption (LoRA) とマルチモーダル命令チューニングを統合した新しい手法を提案する。
各入力インスタンスのユニークな要求に合わせた低ランク適応行列を動的に構築することで、LoRAを革新する。
様々なマルチモーダル評価データセットの実験結果から、MixLoRAは従来のLoRAを同等以上のランクで上回るだけでなく、性能も向上していることが示された。
論文 参考訳(メタデータ) (2024-02-24T20:15:31Z) - Robust Analysis of Multi-Task Learning on a Complex Vision System [73.65915899030895]
マルチタスク学習(MTL)は過去10年間に広く研究されてきた。
複雑な実世界のシナリオにおけるパフォーマンスについて、まだ深く理解されていない。
論文 参考訳(メタデータ) (2024-02-05T22:15:55Z) - Multitask Learning for Time Series Data with 2D Convolution [32.72419542473646]
マルチタスク学習(MTL)は、密接に関連する一連のタスクを同時に処理できる統一モデルを開発することを目的としている。
本稿では,MTLの時系列分類問題への適用について検討する。
現状の1D畳み込みモデルとMLLを統合した場合,RTCモデルの性能は実際に低下することを示す。
論文 参考訳(メタデータ) (2023-10-05T22:00:17Z) - Low-Rank Multitask Learning based on Tensorized SVMs and LSSVMs [65.42104819071444]
マルチタスク学習(MTL)はタスク関連性を活用して性能を向上させる。
タスクインデックスに対応する各モードを持つ高次テンソルを用いて、複数のインデックスが参照するタスクを自然に表現する。
テンソル化サポートベクターマシン(SVM)と最小2乗サポートベクターマシン(LSSVM)を併用した低ランクMTL手法の汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-30T14:28:26Z) - Online Multi-Task Learning with Recursive Least Squares and Recursive
Kernel Methods [79.36688444492405]
本稿では,オンラインマルチタスク学習(MTL)回帰問題に対する2つの新しいアプローチを紹介する。
我々は、グラフベースの高性能MTL定式化を採用し、重み付き再帰最小方形(WRLS)とオンラインスパース最小方形サポートベクトル回帰(OSLSSVR)に基づく再帰版を開発する。
我々は,実世界の風速予測ケーススタディにおいて,オンラインMTL法と他の競技者との比較を行った。
論文 参考訳(メタデータ) (2023-08-03T01:41:34Z) - Independent Component Alignment for Multi-Task Learning [2.5234156040689237]
マルチタスク学習(MTL)では、複数のタスクに共同で取り組むために単一のモデルを訓練する。
MTL最適化の安定性基準として線形勾配系の条件数を用いる。
本稿では,提案基準に基づく新しいMTL最適化手法であるAligned-MTLを提案する。
論文 参考訳(メタデータ) (2023-05-30T12:56:36Z) - Feature Decomposition for Reducing Negative Transfer: A Novel Multi-task
Learning Method for Recommender System [35.165907482126464]
特徴分解ネットワーク(FDN)と呼ばれる新しいマルチタスク学習手法を提案する。
提案するFDNの鍵となる考え方は,特徴をタスク固有機能とタスク共有機能に明示的に分解することで,特徴冗長性の現象を小さくすることである。
実験結果から,提案するFDN法は最先端(SOTA)法よりも顕著なマージンで優れていることがわかった。
論文 参考訳(メタデータ) (2023-02-10T03:08:37Z) - Task Aware Feature Extraction Framework for Sequential Dependence
Multi-Task Learning [1.0765359420035392]
我々は厳密な数学的観点から逐次依存型MLLを解析する。
逐次依存型MLLのためのタスク認識特徴抽出(TAFE)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-06T13:12:59Z) - M$^3$ViT: Mixture-of-Experts Vision Transformer for Efficient Multi-task
Learning with Model-Accelerator Co-design [95.41238363769892]
マルチタスク学習(MTL)は、複数の学習タスクを単一のモデルにカプセル化し、それらのタスクを共同でよりよく学習できるようにする。
現在のMTLレギュレータは、1つのタスクだけを実行するためにさえ、ほぼすべてのモデルを起動する必要がある。
効率的なオンデバイスMTLを実現するためのモデル-アクセラレータ共設計フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-26T15:40:24Z) - Multi-Task Learning as a Bargaining Game [63.49888996291245]
マルチタスク学習(MTL)では、複数のタスクを同時に予測するためにジョイントモデルを訓練する。
これらの異なるタスクの勾配が矛盾する可能性があるため、MTLのジョイントモデルを訓練すると、対応するシングルタスクモデルよりも低いパフォーマンスが得られる。
本稿では,パラメータ更新のジョイント方向で合意に達するためのタスクを交渉する交渉ゲームとして,勾配の組み合わせステップを考察する。
論文 参考訳(メタデータ) (2022-02-02T13:21:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。