論文の概要: Effective Two-Stage Knowledge Transfer for Multi-Entity Cross-Domain
Recommendation
- arxiv url: http://arxiv.org/abs/2402.19101v1
- Date: Thu, 29 Feb 2024 12:29:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-01 14:52:28.487926
- Title: Effective Two-Stage Knowledge Transfer for Multi-Entity Cross-Domain
Recommendation
- Title(参考訳): マルチエンティティ・クロスドメイン・レコメンデーションのための効果的な2段階知識伝達
- Authors: Jianyu Guan, Zongming Yin, Tianyi Zhang, Leihui Chen, Yin Zhang, Fei
Huang, Jufeng Chen, Shuguang Han
- Abstract要約: 我々は,MKTと呼ばれる,事前学習および微調整に基づく多言語知識伝達フレームワークを提案する。
MKTはマルチエンタリティ事前学習モジュールを使用して、異なるエンティティ間で伝達可能な知識を抽出する。
最後に,抽出した共通知識を対象エンティティモデルトレーニングに適用する。
- 参考スコア(独自算出の注目度): 27.14804652946457
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, the recommendation content on e-commerce platforms has
become increasingly rich -- a single user feed may contain multiple entities,
such as selling products, short videos, and content posts. To deal with the
multi-entity recommendation problem, an intuitive solution is to adopt the
shared-network-based architecture for joint training. The idea is to transfer
the extracted knowledge from one type of entity (source entity) to another
(target entity). However, different from the conventional same-entity
cross-domain recommendation, multi-entity knowledge transfer encounters several
important issues: (1) data distributions of the source entity and target entity
are naturally different, making the shared-network-based joint training
susceptible to the negative transfer issue, (2) more importantly, the
corresponding feature schema of each entity is not exactly aligned (e.g., price
is an essential feature for selling product while missing for content posts),
making the existing methods no longer appropriate. Recent researchers have also
experimented with the pre-training and fine-tuning paradigm. Again, they only
consider the scenarios with the same entity type and feature systems, which is
inappropriate in our case. To this end, we design a pre-training & fine-tuning
based Multi-entity Knowledge Transfer framework called MKT. MKT utilizes a
multi-entity pre-training module to extract transferable knowledge across
different entities. In particular, a feature alignment module is first applied
to scale and align different feature schemas. Afterward, a couple of knowledge
extractors are employed to extract the common and entity-specific knowledge. In
the end, the extracted common knowledge is adopted for target entity model
training. Through extensive offline and online experiments, we demonstrated the
superiority of MKT over multiple State-Of-The-Art methods.
- Abstract(参考訳): 近年、eコマースプラットフォーム上のレコメンデーションコンテンツはますます豊かになってきており、単一のユーザーフィードには商品の販売、ショートビデオ、コンテンツ投稿など複数のエンティティが含まれる可能性がある。
マルチエンティティレコメンデーション問題に対処するために、直感的な解決策は、共同トレーニングに共有ネットワークベースのアーキテクチャを採用することである。
そのアイデアは抽出された知識をあるタイプのエンティティ(ソースエンティティ)から別のエンティティ(ターゲットエンティティ)に転送することです。
However, different from the conventional same-entity cross-domain recommendation, multi-entity knowledge transfer encounters several important issues: (1) data distributions of the source entity and target entity are naturally different, making the shared-network-based joint training susceptible to the negative transfer issue, (2) more importantly, the corresponding feature schema of each entity is not exactly aligned (e.g., price is an essential feature for selling product while missing for content posts), making the existing methods no longer appropriate.
最近の研究者は、事前学習と微調整のパラダイムも実験している。
繰り返しますが、同じエンティティタイプと機能システムでのみシナリオを検討するため、このケースでは不適切です。
そこで我々は,MKTと呼ばれる,事前学習および微調整に基づく多言語知識伝達フレームワークを設計する。
MKTはマルチエンタリティ事前学習モジュールを使用して、異なるエンティティ間で伝達可能な知識を抽出する。
特に、機能アライメントモジュールが最初に適用され、異なる機能スキーマをスケールおよびアライメントする。
その後、共通知識とエンティティ固有の知識を抽出するために、いくつかの知識抽出器が使用される。
最後に、抽出された共通知識を対象エンティティモデルのトレーニングに採用する。
大規模なオフラインおよびオンライン実験を通じて、複数のState-Of-The-Art法よりもMKTの方が優れていることを示した。
関連論文リスト
- Two Heads Are Better Than One: Integrating Knowledge from Knowledge
Graphs and Large Language Models for Entity Alignment [31.70064035432789]
LLMEA(Large Language Model-enhanced Entity Alignment Framework)を提案する。
LLMEAは、知識グラフにまたがるエンティティ間の類似性を埋め込んだり、仮想の等価エンティティとの距離を編集することで、特定のエンティティの候補アライメントを識別する。
3つの公開データセットで実施された実験により、LLMEAが主要なベースラインモデルを上回ることが判明した。
論文 参考訳(メタデータ) (2024-01-30T12:41:04Z) - MESED: A Multi-modal Entity Set Expansion Dataset with Fine-grained
Semantic Classes and Hard Negative Entities [25.059177235004952]
本稿では,マルチモーダル・エンティティ・セット・エクスパンジョン(MESE)を提案する。
4つのマルチモーダル事前学習タスクで事前学習を行う強力なマルチモーダルモデルであるMultiExpanを提案する。
MESEDデータセットは、大規模かつ精巧な手動キャリブレーションを備えたESEのための最初のマルチモーダルデータセットである。
論文 参考訳(メタデータ) (2023-07-27T14:09:59Z) - Towards Better Entity Linking with Multi-View Enhanced Distillation [30.554387215553238]
本稿では,エンティティリンクのためのマルチビュー拡張蒸留(MVD)フレームワークを提案する。
MVDは、エンティティ内の複数の細粒度および参照関連部分の知識を、クロスエンコーダからデュアルエンコーダへ効果的に転送することができる。
実験により,提案手法はいくつかのエンティティリンクベンチマークにおいて最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-05-27T05:15:28Z) - Nested Named Entity Recognition from Medical Texts: An Adaptive Shared
Network Architecture with Attentive CRF [53.55504611255664]
ネスト現象によるジレンマを解決するために,ASACと呼ばれる新しい手法を提案する。
提案手法は,適応共有(AS)部と注意条件付きランダムフィールド(ACRF)モジュールの2つの鍵モジュールを含む。
我々のモデルは、異なるカテゴリのエンティティ間の暗黙の区別と関係をキャプチャすることで、より良いエンティティ表現を学ぶことができる。
論文 参考訳(メタデータ) (2022-11-09T09:23:56Z) - Meta Knowledge Condensation for Federated Learning [65.20774786251683]
既存のフェデレートされた学習パラダイムは通常、より強力なモデルを達成するために、中央の解決器で分散モデルを広範囲に交換する。
これにより、特にデータ分散が不均一である場合、サーバと複数のクライアントの間で深刻な通信負荷が発生します。
既存のパラダイムとは違って,フェデレート学習におけるコミュニケーションコストを大幅に削減する新たな視点を導入する。
論文 参考訳(メタデータ) (2022-09-29T15:07:37Z) - Multi-modal Contrastive Representation Learning for Entity Alignment [57.92705405276161]
マルチモーダルなエンティティアライメントは、2つの異なるマルチモーダルな知識グラフ間で等価なエンティティを識別することを目的としている。
マルチモーダルコントラスト学習に基づくエンティティアライメントモデルであるMCLEAを提案する。
特に、MCLEAはまず複数のモダリティから複数の個別表現を学習し、その後、モダリティ内およびモダリティ間相互作用を共同でモデル化するコントラスト学習を行う。
論文 参考訳(メタデータ) (2022-09-02T08:59:57Z) - Entity-Graph Enhanced Cross-Modal Pretraining for Instance-level Product
Retrieval [152.3504607706575]
本研究の目的は, 細粒度製品カテゴリを対象とした, 弱制御型マルチモーダル・インスタンスレベルの製品検索である。
まず、Product1Mデータセットをコントリビュートし、2つの実際のインスタンスレベルの検索タスクを定義します。
我々は、マルチモーダルデータから重要な概念情報を組み込むことができるより効果的なクロスモーダルモデルを訓練するために活用する。
論文 参考訳(メタデータ) (2022-06-17T15:40:45Z) - Deep Transfer Learning for Multi-source Entity Linkage via Domain
Adaptation [63.24594955429465]
マルチソースエンティティリンクは、データのクリーニングやユーザ縫合といった、高インパクトなアプリケーションにおいて重要である。
AdaMELは、多ソースエンティティリンクを実行するための一般的なハイレベルな知識を学ぶディープトランスファー学習フレームワークである。
本フレームワークは,教師付き学習に基づく平均的手法よりも8.21%向上した最先端の学習結果を実現する。
論文 参考訳(メタデータ) (2021-10-27T15:20:41Z) - Learning to Combine: Knowledge Aggregation for Multi-Source Domain
Adaptation [56.694330303488435]
マルチソースドメイン適応(LtC-MSDA)フレームワークを併用する学習法を提案する。
簡単に言うと、知識グラフは様々なドメインのプロトタイプ上に構築され、セマンティックに隣接した表現間の情報伝達を実現する。
我々のアプローチは、既存の手法よりも顕著なマージンで優れています。
論文 参考訳(メタデータ) (2020-07-17T07:52:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。