論文の概要: Improving Multi-Interest Network with Stable Learning
- arxiv url: http://arxiv.org/abs/2207.07910v1
- Date: Thu, 14 Jul 2022 07:49:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-19 15:44:12.497902
- Title: Improving Multi-Interest Network with Stable Learning
- Title(参考訳): 安定学習によるマルチゲストネットワークの改善
- Authors: Zhaocheng Liu, Yingtao Luo, Di Zeng, Qiang Liu, Daqing Chang, Dongying
Kong, Zhi Chen
- Abstract要約: Deep Stable Multi-Interest Learning (DESMIL) という新しい多目的ネットワークを提案する。
DESMILは、収集した関心事間の微妙な依存関係の影響を、トレーニングサンプルの学習重みによって排除しようとする。
我々は、パブリックレコメンデーションデータセット、大規模産業データセット、合成データセットに関する広範な実験を行う。
- 参考スコア(独自算出の注目度): 13.514488368734776
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modeling users' dynamic preferences from historical behaviors lies at the
core of modern recommender systems. Due to the diverse nature of user
interests, recent advances propose the multi-interest networks to encode
historical behaviors into multiple interest vectors. In real scenarios, the
corresponding items of captured interests are usually retrieved together to get
exposure and collected into training data, which produces dependencies among
interests. Unfortunately, multi-interest networks may incorrectly concentrate
on subtle dependencies among captured interests. Misled by these dependencies,
the spurious correlations between irrelevant interests and targets are
captured, resulting in the instability of prediction results when training and
test distributions do not match. In this paper, we introduce the widely used
Hilbert-Schmidt Independence Criterion (HSIC) to measure the degree of
independence among captured interests and empirically show that the continuous
increase of HSIC may harm model performance. Based on this, we propose a novel
multi-interest network, named DEep Stable Multi-Interest Learning (DESMIL),
which tries to eliminate the influence of subtle dependencies among captured
interests via learning weights for training samples and make model concentrate
more on underlying true causation. We conduct extensive experiments on public
recommendation datasets, a large-scale industrial dataset and the synthetic
datasets which simulate the out-of-distribution data. Experimental results
demonstrate that our proposed DESMIL outperforms state-of-the-art models by a
significant margin. Besides, we also conduct comprehensive model analysis to
reveal the reason why DESMIL works to a certain extent.
- Abstract(参考訳): 歴史的行動からユーザの動的嗜好をモデル化することは、現代のレコメンデータシステムの中核にある。
ユーザの興味の多様性から、近年の進歩は、過去の振る舞いを複数の興味ベクトルにエンコードするマルチ関心ネットワークを提案する。
実際のシナリオでは、キャプチャされた関心事の対応するアイテムは、通常、露出を取得してトレーニングデータに収集され、興味事間の依存関係を生成する。
残念ながら、マルチ関心ネットワークは、取得した関心事間の微妙な依存関係に誤って集中する可能性がある。
これらの依存関係によって、無関係な関心と目標の間の急激な相関が捉えられ、トレーニングとテスト分布が一致しない場合に予測結果が不安定になる。
本稿では,Hilbert-Schmidt Independence Criterion(HSIC)を導入し,獲得した利害関係の独立度を測定し,HSICの継続的な増加がモデル性能を損なう可能性を実証的に示す。
そこで,本研究では,サンプルの学習重みによる捕えられた関心事間の微妙な依存関係の影響を排除し,モデルが真の因果関係により集中することを目的とした,新しい多目的ネットワークDESMILを提案する。
公開レコメンデーションデータセット,大規模産業データセット,分散データをシミュレートする合成データセットについて,広範な実験を行った。
実験の結果,提案するdesmilが最先端モデルを上回ることがわかった。
さらに、DESMILがある程度機能する理由を明らかにするために、包括的モデル解析も行っています。
関連論文リスト
- LLM-assisted Explicit and Implicit Multi-interest Learning Framework for Sequential Recommendation [50.98046887582194]
本研究では,ユーザの興味を2つのレベル – 行動と意味論 – でモデル化する,明示的で暗黙的な多目的学習フレームワークを提案する。
提案するEIMFフレームワークは,小型モデルとLLMを効果的に組み合わせ,多目的モデリングの精度を向上させる。
論文 参考訳(メタデータ) (2024-11-14T13:00:23Z) - Most Influential Subset Selection: Challenges, Promises, and Beyond [9.479235005673683]
我々は,最も集団的影響の大きいトレーニングサンプルのサブセットを特定することを目的とした,MISS(Most Influential Subset Selection)問題について検討する。
我々は、MISにおける一般的なアプローチを包括的に分析し、その強みと弱点を解明する。
本稿では,これらを反復的に適用した適応バージョンが,試料間の相互作用を効果的に捕捉できることを実証する。
論文 参考訳(メタデータ) (2024-09-25T20:00:23Z) - Bayesian Joint Additive Factor Models for Multiview Learning [7.254731344123118]
マルチオミクスデータが収集され、臨床結果と相関する精度医学の文脈でモチベーション応用が生じる。
本稿では,共有およびビュー固有のコンポーネントを考慮に入れた,構造化された付加的設計を伴うJAFAR(Joint Additive Factor regression model)を提案する。
免疫,メタボローム,プロテオームデータから得られた時間とラベルの発症の予測は,最先端の競合相手に対するパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2024-06-02T15:35:45Z) - Leveraging Diffusion Disentangled Representations to Mitigate Shortcuts
in Underspecified Visual Tasks [92.32670915472099]
拡散確率モデル(DPM)を用いた合成カウンターファクトの生成を利用したアンサンブルの多様化フレームワークを提案する。
拡散誘導型分散化は,データ収集を必要とする従来の手法に匹敵するアンサンブル多様性を達成し,ショートカットからの注意を回避できることを示す。
論文 参考訳(メタデータ) (2023-10-03T17:37:52Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Deep Stable Multi-Interest Learning for Out-of-distribution Sequential
Recommendation [21.35873758251157]
そこで本研究では,Deep Stable Multi-Interest Learning (DESMIL) と呼ばれる新しい多目的ネットワークを提案する。
DESMILは、トレーニングサンプルを重み付けしたHilbert-Schmidt Independence Criterion (HSIC)に基づく重み付き相関推定損失を取り入れ、抽出された関心事間の相関を最小化する。
論文 参考訳(メタデータ) (2023-04-12T05:13:54Z) - Coarse-to-Fine Knowledge-Enhanced Multi-Interest Learning Framework for
Multi-Behavior Recommendation [52.89816309759537]
マルチタイプの行動(例えば、クリック、カートの追加、購入など)は、ほとんどの現実世界のレコメンデーションシナリオに広く存在する。
最先端のマルチ振る舞いモデルは、すべての歴史的相互作用を入力として区別しない振る舞い依存を学習する。
本稿では,多様な行動に対する共有的・行動特異的な関心を学習するための,多目的学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-03T05:28:14Z) - CHALLENGER: Training with Attribution Maps [63.736435657236505]
ニューラルネットワークのトレーニングに属性マップを利用すると、モデルの正規化が向上し、性能が向上することを示す。
特に、我々の汎用的なドメインに依存しないアプローチは、ビジョン、自然言語処理、時系列タスクにおける最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-30T13:34:46Z) - Multiple Interest and Fine Granularity Network for User Modeling [3.508126539399186]
ユーザモデリングは、カスタマエクスペリエンスとビジネス収益の両方の観点から、マッチングステージとランキングステージの両方において、産業レコメンデータシステムにおいて、基本的な役割を果たす。
既存のディープラーニングベースのアプローチのほとんどは、アイテムIDとカテゴリIDを活用するが、色やメイトリアルのようなきめ細かい特徴は無視し、ユーザの興味の細かい粒度をモデル化するのを妨げる。
本稿では,ユーザの多目的・細粒度に対処する多目的・細粒度ネットワーク(MFN)を提案し,ユーザの多目的間の類似性関係と組み合わせ関係からモデルを構築した。
論文 参考訳(メタデータ) (2021-12-05T15:12:08Z) - On the Efficacy of Adversarial Data Collection for Question Answering:
Results from a Large-Scale Randomized Study [65.17429512679695]
逆データ収集(ADC)では、人間の労働力がモデルとリアルタイムで対話し、誤った予測を誘発する例を作成しようとする。
ADCの直感的な魅力にも拘わらず、敵対的データセットのトレーニングがより堅牢なモデルを生成するかどうかは不明だ。
論文 参考訳(メタデータ) (2021-06-02T00:48:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。