論文の概要: Towards Unified Modeling for Positive and Negative Preferences in
Sign-Aware Recommendation
- arxiv url: http://arxiv.org/abs/2403.08246v1
- Date: Wed, 13 Mar 2024 05:00:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 15:50:08.896539
- Title: Towards Unified Modeling for Positive and Negative Preferences in
Sign-Aware Recommendation
- Title(参考訳): 肯定的および否定的選好の統一モデリングに向けて
Sign-Aware Recommendation
- Authors: Yuting Liu, Yizhou Dang, Yuliang Liang, Qiang Liu, Guibing Guo,
Jianzhe Zhao, Xingwei Wang
- Abstract要約: textbfLight textbfSigned textbfGraph Convolution Network for textbfRecommendation (textbfLSGRec)を提案する。
高次不均一相互作用における負の選好について、一階の負の選好は負のリンクによって捕捉される。
推奨結果は肯定的な選好に基づいて生成され、負の選好で最適化される。
- 参考スコア(独自算出の注目度): 13.300975621769396
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, sign-aware graph recommendation has drawn much attention as it will
learn users' negative preferences besides positive ones from both positive and
negative interactions (i.e., links in a graph) with items. To accommodate the
different semantics of negative and positive links, existing works utilize two
independent encoders to model users' positive and negative preferences,
respectively. However, these approaches cannot learn the negative preferences
from high-order heterogeneous interactions between users and items formed by
multiple links with different signs, resulting in inaccurate and incomplete
negative user preferences. To cope with these intractable issues, we propose a
novel \textbf{L}ight \textbf{S}igned \textbf{G}raph Convolution Network
specifically for \textbf{Rec}ommendation (\textbf{LSGRec}), which adopts a
unified modeling approach to simultaneously model high-order users' positive
and negative preferences on a signed user-item interaction graph. Specifically,
for the negative preferences within high-order heterogeneous interactions,
first-order negative preferences are captured by the negative links, while
high-order negative preferences are propagated along positive edges. Then,
recommendation results are generated based on positive preferences and
optimized with negative ones. Finally, we train representations of users and
items through different auxiliary tasks. Extensive experiments on three
real-world datasets demonstrate that our method outperforms existing baselines
regarding performance and computational efficiency. Our code is available at
\url{https://anonymous.4open.science/r/LSGRec-BB95}.
- Abstract(参考訳): 近年,グラフの肯定的・否定的な相互作用(例えば,グラフ内のリンク)とアイテムとの相互作用以外に,ユーザのネガティブな嗜好を学習する上で,サインアウェアグラフの推奨が注目されている。
負のリンクと正のリンクの異なるセマンティクスに対応するため、既存の研究では2つの独立したエンコーダを使用して、ユーザの正と負の好みをモデル化している。
しかし、これらの手法は、異なる記号を持つ複数のリンクによって形成されるユーザとアイテム間の高次不均一な相互作用から負の嗜好を学習できないため、不正確で不完全なユーザ嗜好をもたらす。
これらの難解な問題に対処するため, 署名されたユーザ・イテム相互作用グラフ上で高次ユーザの肯定的・否定的な嗜好を同時にモデル化するための統一的モデリング手法を採用した, \textbf{L}ight \textbf{S}igned \textbf{G}raph Convolution Network(\textbf{Rec}ommendation)を提案する。
特に、高次不均一相互作用における負の選好については、第1次負の選好は負のリンクによって捕捉され、高次負の選好は正のエッジに沿って伝播される。
そして、肯定的な選好に基づいて推薦結果を生成し、負の選好に最適化する。
最後に、ユーザとアイテムの表現を異なる補助タスクで訓練する。
実世界の3つのデータセットに対する大規模な実験により、本手法は、性能と計算効率に関する既存のベースラインよりも優れていることが示された。
我々のコードは \url{https://anonymous.4open.science/r/LSGRec-BB95} で入手できる。
関連論文リスト
- Negative-Prompt-driven Alignment for Generative Language Model [34.191590966148816]
本稿では,言語モデルが望ましくない行動から遠ざかるように,NEGative-prompt-driven AlignmenTを提案する。
NEATは有害なアウトプットを生成するためのモデルを明確に罰し、望ましい行動だけでなく、望ましくない偏見のある反応を発生させないよう仕向けている。
大規模な実験により、NEATは言語モデルと人間の価値観と嗜好との整合性を著しく向上させる効果を検証した。
論文 参考訳(メタデータ) (2024-10-16T03:30:09Z) - Generating Enhanced Negatives for Training Language-Based Object Detectors [86.1914216335631]
我々は、現代の生成モデルに組み込まれた膨大な知識を活用して、元のデータにより関連性のある負を自動で構築することを提案する。
具体的には、大言語モデルを用いて、負のテキスト記述を生成するとともに、テキスト間拡散モデルを用いて、対応する負の画像を生成する。
実験により, 生成した負データとの関連性を確認し, 言語ベースの検出器での使用により, 2つの複雑なベンチマークの性能が向上した。
論文 参考訳(メタデータ) (2023-12-29T23:04:00Z) - Topology-aware Debiased Self-supervised Graph Learning for
Recommendation [6.893289671937124]
本稿では,TDGL(Topology-aware De Self-supervised Graph Learning)を提案する。
TDSGLはユーザ間の意味的類似性(items)に応じてコントラッシブなペアを構成する
その結果,提案モデルが3つの公開データセット上で,最先端モデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-10-24T14:16:19Z) - Efficient Link Prediction via GNN Layers Induced by Negative Sampling [92.05291395292537]
リンク予測のためのグラフニューラルネットワーク(GNN)は、緩やかに2つの広いカテゴリに分けられる。
まず、Emphnode-wiseアーキテクチャは各ノードの個別の埋め込みをプリコンパイルし、後に単純なデコーダで結合して予測を行う。
第二に、エンフェッジワイド法は、ペアワイド関係の表現を強化するために、エッジ固有のサブグラフ埋め込みの形成に依存している。
論文 参考訳(メタデータ) (2023-10-14T07:02:54Z) - Your Negative May not Be True Negative: Boosting Image-Text Matching
with False Negative Elimination [62.18768931714238]
提案手法は, サンプリングによる新規な偽陰性除去 (FNE) 戦略である。
その結果,提案した偽陰性除去戦略の優位性が示された。
論文 参考訳(メタデータ) (2023-08-08T16:31:43Z) - Generating Negative Samples for Sequential Recommendation [83.60655196391855]
逐次レコメンデーション(SR)のための負のサンプル(イテム)を生成することを提案する。
アイテムに対する現在のSRモデルの学習されたユーザの好みに基づいて、各タイムステップで負の項目をサンプリングする。
4つの公開データセットの実験は、SRに高品質な負のサンプルを提供することの重要性を検証する。
論文 参考訳(メタデータ) (2022-08-07T05:44:13Z) - Negative Sampling for Recommendation [7.758275614033198]
高品質なネガティブなインスタンスを効果的にサンプルする方法は、レコメンデーションモデルを適切にトレーニングするために重要である。
我々は、高品質なネガティブは、テクスチュンフォームネスとテクスチュンバイアスネスの両方であるべきだと論じる。
論文 参考訳(メタデータ) (2022-04-02T09:50:19Z) - Sequential Recommendation via Stochastic Self-Attention [68.52192964559829]
Transformerベースのアプローチでは、アイテムをベクトルとして埋め込んで、ドット積の自己アテンションを使用してアイテム間の関係を測定する。
本稿では,これらの問題を克服するための新しいtextbfStochastic textbfSelf-textbfAttention (STOSA) を提案する。
我々は、アイテムと項目の位置関係を列で特徴づける新しいワッサースタイン自己保持モジュールを考案した。
論文 参考訳(メタデータ) (2022-01-16T12:38:45Z) - Bootstrapping User and Item Representations for One-Class Collaborative
Filtering [24.30834981766022]
ワンクラスの協調フィルタリング(OCCF)は、ポジティブに関連があるがまだ相互作用していないユーザーとアイテムのペアを特定することです。
本論文では,否定的なサンプリングを必要としない新しいOCCFフレームワークであるBUIRを提案する。
論文 参考訳(メタデータ) (2021-05-13T14:24:13Z) - Reinforced Negative Sampling over Knowledge Graph for Recommendation [106.07209348727564]
我々は、高品質なネガティブを探索する強化学習エージェントとして機能する新しい負サンプリングモデル、知識グラフポリシーネットワーク(kgPolicy)を開発した。
kgPolicyは、ターゲットのポジティブなインタラクションからナビゲートし、知識を意識したネガティブなシグナルを適応的に受信し、最終的にはリコメンダをトレーニングする潜在的なネガティブなアイテムを生成する。
論文 参考訳(メタデータ) (2020-03-12T12:44:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。