論文の概要: SINCERE: Sequential Interaction Networks representation learning on
Co-Evolving RiEmannian manifolds
- arxiv url: http://arxiv.org/abs/2305.03883v1
- Date: Sat, 6 May 2023 00:38:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 18:53:35.557906
- Title: SINCERE: Sequential Interaction Networks representation learning on
Co-Evolving RiEmannian manifolds
- Title(参考訳): SINCERE: 共進化リーマン多様体上の逐次相互作用ネットワーク表現学習
- Authors: Junda Ye, Zhongbao Zhang, Li Sun, Yang Yan, Feiyang Wang, Fuxin Ren
- Abstract要約: SINCEREは、共進化リーマン多様体上の逐次相互作用ネットワークを表す新しい方法である。
ユーザーとアイテムをそれぞれの空間に埋め込んだ軌跡を考慮に入れ、時間とともに曲率がどのように変化するかという空間の進化を強調する。
いくつかの実世界のデータセットの実験は、最先端のシーケンシャル相互作用予測法に対してSINCEREの有望な性能を示す。
- 参考スコア(独自算出の注目度): 9.710773626459718
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Sequential interaction networks (SIN) have been commonly adopted in many
applications such as recommendation systems, search engines and social networks
to describe the mutual influence between users and items/products. Efforts on
representing SIN are mainly focused on capturing the dynamics of networks in
Euclidean space, and recently plenty of work has extended to hyperbolic
geometry for implicit hierarchical learning. Previous approaches which learn
the embedding trajectories of users and items achieve promising results.
However, there are still a range of fundamental issues remaining open. For
example, is it appropriate to place user and item nodes in one identical space
regardless of their inherent discrepancy? Instead of residing in a single fixed
curvature space, how will the representation spaces evolve when new interaction
occurs? To explore these issues for sequential interaction networks, we propose
SINCERE, a novel method representing Sequential Interaction Networks on
Co-Evolving RiEmannian manifolds. SIN- CERE not only takes the user and item
embedding trajectories in respective spaces into account, but also emphasizes
on the space evolvement that how curvature changes over time. Specifically, we
introduce a fresh cross-geometry aggregation which allows us to propagate
information across different Riemannian manifolds without breaking conformal
invariance, and a curvature estimator which is delicately designed to predict
global curvatures effectively according to current local Ricci curvatures.
Extensive experiments on several real-world datasets demonstrate the promising
performance of SINCERE over the state-of-the-art sequential interaction
prediction methods.
- Abstract(参考訳): 逐次インタラクションネットワーク(sin)は,ユーザとアイテム/製品間の相互影響を記述するために,レコメンデーションシステムや検索エンジン,ソーシャルネットワークなど,多くのアプリケーションで一般的に採用されている。
SINの表現は、主にユークリッド空間におけるネットワークのダイナミクスを捉えることに重点を置いており、近年では暗黙の階層学習のための双曲幾何学まで多くの研究が進められている。
ユーザやアイテムの埋め込み軌跡を学習する従来のアプローチは,有望な結果をもたらす。
しかし、まだ多くの根本的な問題が残っている。
例えば、ユーザとアイテムのノードを、固有の不一致に関わらず、同一のスペースに配置するのは適切か?
単一の固定曲率空間に常駐する代わりに、新しい相互作用が発生したとき、表現空間はどのように進化するのか?
逐次相互作用ネットワークにおけるこれらの問題を探索するため,Riemann多様体上での逐次相互作用ネットワークを表現する新しい手法であるSINCEREを提案する。
SIN-CEREは、ユーザとアイテムの埋め込み軌跡を考慮に入れているだけでなく、時間とともに曲率がどのように変化するかという空間の進化にも重点を置いている。
具体的には,共形不変性を破ることなく異なるリーマン多様体をまたいで情報を伝達できるフレッシュクロスジオメトリアグリゲーションと,現在の局所リッチ曲率に応じて大域的な曲率を効果的に予測するように微妙に設計された曲率推定器を導入する。
いくつかの実世界のデータセットに対する大規模な実験は、最先端のシーケンシャルな相互作用予測法に対するSINCEREの有望な性能を示す。
関連論文リスト
- RCoCo: Contrastive Collective Link Prediction across Multiplex Network
in Riemannian Space [20.85587272424559]
マルチプレクサネットワークにおける幾何対応型集合リンク予測の課題について検討する。
この問題に対処するために,ネットワーク内およびネットワーク間動作を協調する新しいコントラストモデルRCoCoを提案する。
実世界の8つのデータセットに対して,14の強いベースラインを用いた広範な実験を行い,RCoCoの有効性を示した。
論文 参考訳(メタデータ) (2024-03-04T09:20:05Z) - Contrastive Sequential Interaction Network Learning on Co-Evolving
Riemannian Spaces [44.175106851212874]
本稿では,Riemann空間を共進化させるCSINCEREにおける逐次相互作用ネットワーク学習のための新しいコントラストモデルを提案する。
CSINCEREでは、表現空間を横断するメッセージパッシングのためのクロススペースアグリゲーションを定式化する。
また、時間とともに空間の進化をモデル化するためのリッチ曲率に基づくニューラル曲率推定器を設計する。
論文 参考訳(メタデータ) (2024-01-02T15:19:01Z) - Rotated Multi-Scale Interaction Network for Referring Remote Sensing Image Segmentation [63.15257949821558]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z) - Multi-Temporal Relationship Inference in Urban Areas [75.86026742632528]
場所間の時間的関係を見つけることは、動的なオフライン広告やスマートな公共交通計画など、多くの都市アプリケーションに役立つ。
空間的に進化するグラフニューラルネットワーク(SEENet)を含むグラフ学習方式によるTrialの解を提案する。
SEConvは時間内アグリゲーションと時間間伝搬を実行し、位置メッセージパッシングの観点から、多面的に空間的に進化するコンテキストをキャプチャする。
SE-SSLは、位置表現学習を強化し、関係の空間性をさらに扱えるように、グローバルな方法でタイムアウェアな自己教師型学習タスクを設計する。
論文 参考訳(メタデータ) (2023-06-15T07:48:32Z) - Implicit Neural Spatial Representations for Time-dependent PDEs [29.404161110513616]
Inlicit Neural Spatial Representation (INSR) は空間依存ベクトル場の効果的な表現として登場した。
本研究は,INSRを用いた時間依存型PDEの解法について検討する。
論文 参考訳(メタデータ) (2022-09-30T22:46:40Z) - Fusing the Old with the New: Learning Relative Camera Pose with
Geometry-Guided Uncertainty [91.0564497403256]
本稿では,ネットワークトレーニング中の2つの予測系間の確率的融合を含む新しい枠組みを提案する。
本ネットワークは,異なる対応間の強い相互作用を強制することにより学習を駆動する自己追跡グラフニューラルネットワークを特徴とする。
学習に適したモーションパーマリゼーションを提案し、難易度の高いDeMoNおよびScanNetデータセットで最新のパフォーマンスを達成できることを示します。
論文 参考訳(メタデータ) (2021-04-16T17:59:06Z) - Multi-View Dynamic Heterogeneous Information Network Embedding [3.8093526291513347]
MDHNE(Multi-View Dynamic HIN Embedding)と呼ばれるHIN埋め込みに時間情報を組み込む新しいフレームワークを提案する。
提案するMDHNEは、複雑なネットワーク構造とノード間の意味的関係の進化パターンを潜在埋め込み空間に組み込むために、リカレントニューラルネットワーク(RNN)を適用している。
本モデルは,ネットワークマイニングタスクの3つの実世界の動的データセットに対して,最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2020-11-12T12:33:29Z) - A Spatial-Temporal Attentive Network with Spatial Continuity for
Trajectory Prediction [74.00750936752418]
空間連続性をもつ空間時間減衰ネットワーク(STAN-SC)という新しいモデルを提案する。
まず、最も有用かつ重要な情報を探るために、空間的時間的注意機構を提示する。
第2に、生成軌道の空間的連続性を維持するために、シーケンスと瞬間状態情報に基づく共同特徴系列を実行する。
論文 参考訳(メタデータ) (2020-03-13T04:35:50Z) - Neural Operator: Graph Kernel Network for Partial Differential Equations [57.90284928158383]
この作業はニューラルネットワークを一般化し、無限次元空間(演算子)間の写像を学習できるようにすることである。
非線形活性化関数と積分作用素のクラスを構成することにより、無限次元写像の近似を定式化する。
実験により,提案したグラフカーネルネットワークには所望の特性があり,最先端技術と比較した場合の競合性能を示すことが確認された。
論文 参考訳(メタデータ) (2020-03-07T01:56:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。