論文の概要: Effective Two-Stage Knowledge Transfer for Multi-Entity Cross-Domain Recommendation
- arxiv url: http://arxiv.org/abs/2402.19101v2
- Date: Sun, 24 Nov 2024 06:58:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:15:56.394225
- Title: Effective Two-Stage Knowledge Transfer for Multi-Entity Cross-Domain Recommendation
- Title(参考訳): 多要素クロスドメインレコメンデーションのための効果的な2段階知識伝達
- Authors: Jianyu Guan, Zongming Yin, Tianyi Zhang, Leihui Chen, Yin Zhang, Fei Huang, Jufeng Chen, Shuguang Han,
- Abstract要約: 我々は,MKTと呼ばれる,事前学習および微調整に基づく多言語知識伝達フレームワークを提案する。
MKTはマルチエンタリティ事前学習モジュールを使用して、異なるエンティティ間で伝達可能な知識を抽出する。
最後に,抽出した共通知識を対象エンティティモデルトレーニングに適用する。
- 参考スコア(独自算出の注目度): 26.027055867654866
- License:
- Abstract: In recent years, the recommendation content on e-commerce platforms has become increasingly rich -- a single user feed may contain multiple entities, such as selling products, short videos, and content posts. To deal with the multi-entity recommendation problem, an intuitive solution is to adopt the shared-network-based architecture for joint training. The idea is to transfer the extracted knowledge from one type of entity (source entity) to another (target entity). However, different from the conventional same-entity cross-domain recommendation, multi-entity knowledge transfer encounters several important issues: (1) data distributions of the source entity and target entity are naturally different, making the shared-network-based joint training susceptible to the negative transfer issue, (2) more importantly, the corresponding feature schema of each entity is not exactly aligned (e.g., price is an essential feature for selling product while missing for content posts), making the existing methods no longer appropriate. Recent researchers have also experimented with the pre-training and fine-tuning paradigm. Again, they only consider the scenarios with the same entity type and feature systems, which is inappropriate in our case. To this end, we design a pre-training & fine-tuning based Multi-entity Knowledge Transfer framework called MKT. MKT utilizes a multi-entity pre-training module to extract transferable knowledge across different entities. In particular, a feature alignment module is first applied to scale and align different feature schemas. Afterward, a couple of knowledge extractors are employed to extract the common and entity-specific knowledge. In the end, the extracted common knowledge is adopted for target entity model training. Through extensive offline and online experiments, we demonstrated the superiority of MKT over multiple State-Of-The-Art methods.
- Abstract(参考訳): 近年、eコマースプラットフォーム上のレコメンデーションコンテンツはますます豊かになってきており、単一のユーザーフィードには、製品の販売、ショートビデオ、コンテンツ投稿など、複数のエンティティが含まれている可能性がある。
マルチエンタリティレコメンデーション問題に対処するために、直感的な解決策は、共同トレーニングに共有ネットワークベースのアーキテクチャを採用することである。
そのアイデアは、抽出された知識をあるタイプのエンティティ(ソースエンティティ)から別のエンティティ(ターゲットエンティティ)に転送することです。
しかし、従来と異なり、(1)ソースエンティティとターゲットエンティティのデータ分布が自然に異なるため、負の転送問題の影響を受けやすい共有ネットワークベースのジョイントトレーニング、(2)より重要なのは、各エンティティの対応する特徴スキーマが正確に整合していない(例えば、価格がコンテンツ投稿に欠けているときに製品を売る上で不可欠な機能である)ため、既存の手法はもはや適切ではない。
最近の研究者は、事前学習と微調整のパラダイムの実験も行っている。
繰り返しになりますが、同じエンティティタイプと機能システムを持つシナリオしか考慮していません。
そこで我々は,MKTと呼ばれる,事前学習および微調整に基づく多言語知識伝達フレームワークを設計する。
MKTはマルチエンタリティ事前学習モジュールを使用して、異なるエンティティ間で伝達可能な知識を抽出する。
特に、機能アライメントモジュールが最初に適用され、異なる機能スキーマをスケールおよびアライメントする。
その後、共通の知識とエンティティ固有の知識を抽出するために、いくつかの知識抽出器が使用される。
最後に,抽出した共通知識を対象エンティティモデルトレーニングに適用する。
大規模なオフラインおよびオンライン実験を通じて、複数のState-Of-The-Art法よりもMKTの方が優れていることを示した。
関連論文リスト
- Two Heads Are Better Than One: Integrating Knowledge from Knowledge
Graphs and Large Language Models for Entity Alignment [31.70064035432789]
LLMEA(Large Language Model-enhanced Entity Alignment Framework)を提案する。
LLMEAは、知識グラフにまたがるエンティティ間の類似性を埋め込んだり、仮想の等価エンティティとの距離を編集することで、特定のエンティティの候補アライメントを識別する。
3つの公開データセットで実施された実験により、LLMEAが主要なベースラインモデルを上回ることが判明した。
論文 参考訳(メタデータ) (2024-01-30T12:41:04Z) - MESED: A Multi-modal Entity Set Expansion Dataset with Fine-grained
Semantic Classes and Hard Negative Entities [25.059177235004952]
本稿では,マルチモーダル・エンティティ・セット・エクスパンジョン(MESE)を提案する。
4つのマルチモーダル事前学習タスクで事前学習を行う強力なマルチモーダルモデルであるMultiExpanを提案する。
MESEDデータセットは、大規模かつ精巧な手動キャリブレーションを備えたESEのための最初のマルチモーダルデータセットである。
論文 参考訳(メタデータ) (2023-07-27T14:09:59Z) - Towards Better Entity Linking with Multi-View Enhanced Distillation [30.554387215553238]
本稿では,エンティティリンクのためのマルチビュー拡張蒸留(MVD)フレームワークを提案する。
MVDは、エンティティ内の複数の細粒度および参照関連部分の知識を、クロスエンコーダからデュアルエンコーダへ効果的に転送することができる。
実験により,提案手法はいくつかのエンティティリンクベンチマークにおいて最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-05-27T05:15:28Z) - Nested Named Entity Recognition from Medical Texts: An Adaptive Shared
Network Architecture with Attentive CRF [53.55504611255664]
ネスト現象によるジレンマを解決するために,ASACと呼ばれる新しい手法を提案する。
提案手法は,適応共有(AS)部と注意条件付きランダムフィールド(ACRF)モジュールの2つの鍵モジュールを含む。
我々のモデルは、異なるカテゴリのエンティティ間の暗黙の区別と関係をキャプチャすることで、より良いエンティティ表現を学ぶことができる。
論文 参考訳(メタデータ) (2022-11-09T09:23:56Z) - Meta Knowledge Condensation for Federated Learning [65.20774786251683]
既存のフェデレートされた学習パラダイムは通常、より強力なモデルを達成するために、中央の解決器で分散モデルを広範囲に交換する。
これにより、特にデータ分散が不均一である場合、サーバと複数のクライアントの間で深刻な通信負荷が発生します。
既存のパラダイムとは違って,フェデレート学習におけるコミュニケーションコストを大幅に削減する新たな視点を導入する。
論文 参考訳(メタデータ) (2022-09-29T15:07:37Z) - Multi-modal Contrastive Representation Learning for Entity Alignment [57.92705405276161]
マルチモーダルなエンティティアライメントは、2つの異なるマルチモーダルな知識グラフ間で等価なエンティティを識別することを目的としている。
マルチモーダルコントラスト学習に基づくエンティティアライメントモデルであるMCLEAを提案する。
特に、MCLEAはまず複数のモダリティから複数の個別表現を学習し、その後、モダリティ内およびモダリティ間相互作用を共同でモデル化するコントラスト学習を行う。
論文 参考訳(メタデータ) (2022-09-02T08:59:57Z) - Entity-Graph Enhanced Cross-Modal Pretraining for Instance-level Product
Retrieval [152.3504607706575]
本研究の目的は, 細粒度製品カテゴリを対象とした, 弱制御型マルチモーダル・インスタンスレベルの製品検索である。
まず、Product1Mデータセットをコントリビュートし、2つの実際のインスタンスレベルの検索タスクを定義します。
我々は、マルチモーダルデータから重要な概念情報を組み込むことができるより効果的なクロスモーダルモデルを訓練するために活用する。
論文 参考訳(メタデータ) (2022-06-17T15:40:45Z) - Deep Transfer Learning for Multi-source Entity Linkage via Domain
Adaptation [63.24594955429465]
マルチソースエンティティリンクは、データのクリーニングやユーザ縫合といった、高インパクトなアプリケーションにおいて重要である。
AdaMELは、多ソースエンティティリンクを実行するための一般的なハイレベルな知識を学ぶディープトランスファー学習フレームワークである。
本フレームワークは,教師付き学習に基づく平均的手法よりも8.21%向上した最先端の学習結果を実現する。
論文 参考訳(メタデータ) (2021-10-27T15:20:41Z) - Learning to Combine: Knowledge Aggregation for Multi-Source Domain
Adaptation [56.694330303488435]
マルチソースドメイン適応(LtC-MSDA)フレームワークを併用する学習法を提案する。
簡単に言うと、知識グラフは様々なドメインのプロトタイプ上に構築され、セマンティックに隣接した表現間の情報伝達を実現する。
我々のアプローチは、既存の手法よりも顕著なマージンで優れています。
論文 参考訳(メタデータ) (2020-07-17T07:52:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。