論文の概要: HyperTeNet: Hypergraph and Transformer-based Neural Network for
Personalized List Continuation
- arxiv url: http://arxiv.org/abs/2110.01467v1
- Date: Mon, 4 Oct 2021 14:06:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-05 15:10:55.430396
- Title: HyperTeNet: Hypergraph and Transformer-based Neural Network for
Personalized List Continuation
- Title(参考訳): HyperTeNet: 個人化リスト継続のためのハイパーグラフとトランスフォーマーベースニューラルネットワーク
- Authors: Vijaikumar M, Deepesh Hada, Shirish Shevade
- Abstract要約: パーソナライズされたリスト継続タスクのための自己アテンションハイパーグラフとトランスフォーマーベースのニューラルネットワークアーキテクチャであるHyperTeNetを提案する。
グラフ畳み込みを用いて、同一タイプのエンティティ間のマルチホップ関係を学習する。
また、自己注意に基づくハイパーグラフニューラルネットワークを利用して、相互作用するエンティティ間の3次関係を学習する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The personalized list continuation (PLC) task is to curate the next items to
user-generated lists (ordered sequence of items) in a personalized way. The
main challenge in this task is understanding the ternary relationships among
the interacting entities (users, items, and lists) that the existing works do
not consider. Further, they do not take into account the multi-hop
relationships among entities of the same type. In addition, capturing the
sequential information amongst the items already present in the list also plays
a vital role in determining the next relevant items that get curated.
In this work, we propose HyperTeNet -- a self-attention hypergraph and
Transformer-based neural network architecture for the personalized list
continuation task to address the challenges mentioned above. We use graph
convolutions to learn the multi-hop relationship among the entities of the same
type and leverage a self-attention-based hypergraph neural network to learn the
ternary relationships among the interacting entities via hyperlink prediction
in a 3-uniform hypergraph. Further, the entity embeddings are shared with a
Transformer-based architecture and are learned through an alternating
optimization procedure. As a result, this network also learns the sequential
information needed to curate the next items to be added to the list.
Experimental results demonstrate that HyperTeNet significantly outperforms the
other state-of-the-art models on real-world datasets. Our implementation and
datasets are available at https://github.com/mvijaikumar/HyperTeNet.
- Abstract(参考訳): パーソナライズされたリスト継続(PLC)タスクは、パーソナライズされた方法で、次のアイテムをユーザ生成リスト(注文されたアイテムのシーケンス)にキュレートする。
このタスクの主な課題は、既存の作品が考慮していない相互作用するエンティティ(ユーザ、アイテム、リスト)間の三者関係を理解することである。
また、同一タイプのエンティティ間のマルチホップ関係を考慮に入れない。
さらに、リストにすでに存在するアイテムのシーケンシャルな情報を取得することも、キュレートされる次の関連するアイテムを決定する上で重要な役割を果たす。
本稿では,先述の課題を解決するために,リスト継続タスクをパーソナライズするためのハイパーグラフとトランスフォーマーベースのニューラルネットワークアーキテクチャであるhypertenetを提案する。
グラフ畳み込みを用いて、同一タイプのエンティティ間のマルチホップ関係を学習し、自己アテンションに基づくハイパーグラフニューラルネットワークを用いて、3ユニフォームハイパーグラフのハイパーリンク予測により相互作用するエンティティ間の3次関係を学習する。
さらに、エンティティ埋め込みはTransformerベースのアーキテクチャと共有され、交互最適化手順を通じて学習される。
結果として、このネットワークは、リストに追加される次の項目のキュレーションに必要なシーケンシャルな情報も学習する。
実験の結果,HyperTeNetは実世界のデータセット上で,他の最先端モデルよりも大幅に優れていた。
実装とデータセットはhttps://github.com/mvijaikumar/HyperTeNet.comで公開しています。
関連論文リスト
- Interaction Event Forecasting in Multi-Relational Recursive HyperGraphs: A Temporal Point Process Approach [12.142292322071299]
本研究は,マルチリレーショナル再帰的ハイパーグラフにおける高次相互作用事象の予測問題に対処する。
提案したモデルであるtextitRelational Recursive Hyperedge Temporal Point Process (RRHyperTPP) は,歴史的相互作用パターンに基づいて動的ノード表現を学習するエンコーダを使用する。
我々は,従来のインタラクション予測手法よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2024-04-27T15:46:54Z) - DE-HNN: An effective neural model for Circuit Netlist representation [11.052573941347267]
設計者は、ツールの実行よりもはるかに短い時間で、設計に対するフィードバックを提供する高速なツールを望んでいる。
本稿では,方向同変型ハイパーグラフニューラルネットワーク(DE-HNN)を提案する。
我々のDE-HNNは、有向ハイパーグラフに対して自然に、ある置換同変および不変性を満たす任意のノードまたはハイパーエッジ基底関数を普遍的に近似できることを示す。
論文 参考訳(メタデータ) (2024-03-30T21:54:01Z) - Multi-Scene Generalized Trajectory Global Graph Solver with Composite
Nodes for Multiple Object Tracking [61.69892497726235]
複合ノードメッセージパッシングネットワーク(CoNo-Link)は、超長いフレーム情報を関連付けるためのフレームワークである。
オブジェクトをノードとして扱う従来の方法に加えて、このネットワークは情報インタラクションのためのノードとしてオブジェクトトラジェクトリを革新的に扱う。
我々のモデルは、合成ノードを追加することで、より長い時間スケールでより良い予測を学習することができる。
論文 参考訳(メタデータ) (2023-12-14T14:00:30Z) - Joint Entity and Relation Extraction with Span Pruning and Hypergraph
Neural Networks [58.43972540643903]
PLマーカ(最先端マーカーベースピプレリンモデル)上に構築されたEREのためのHyperGraphニューラルネットワーク(hgnn$)を提案する。
エラーの伝播を軽減するため,NERモジュールからのエンティティ識別とラベル付けの負担をモデルのジョイントモジュールに転送するために,ハイリコールプルーナー機構を用いる。
EREタスクに広く使用されている3つのベンチマークの実験は、以前の最先端のPLマーカーよりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-10-26T08:36:39Z) - From Hypergraph Energy Functions to Hypergraph Neural Networks [94.88564151540459]
パラメータ化されたハイパーグラフ正規化エネルギー関数の表現型族を示す。
次に、これらのエネルギーの最小化がノード埋め込みとして効果的に機能することを実証する。
提案した双レベルハイパーグラフ最適化と既存のGNNアーキテクチャを共通的に用いている。
論文 参考訳(メタデータ) (2023-06-16T04:40:59Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - Temporal Graph Network Embedding with Causal Anonymous Walks
Representations [54.05212871508062]
本稿では,時間グラフネットワークに基づく動的ネットワーク表現学習のための新しいアプローチを提案する。
評価のために、時間的ネットワーク埋め込みの評価のためのベンチマークパイプラインを提供する。
欧州の大手銀行が提供した実世界のダウンストリームグラフ機械学習タスクにおいて、我々のモデルの適用性と優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-19T15:39:52Z) - ConsNet: Learning Consistency Graph for Zero-Shot Human-Object
Interaction Detection [101.56529337489417]
画像中のHuman, Action, Object>の形のHOIインスタンスを検出・認識することを目的としたHuman-Object Interaction (HOI) Detectionの問題点を考察する。
我々は、オブジェクト、アクション、インタラクション間の多レベルコンパレンシーは、稀な、あるいは以前には見られなかったHOIのセマンティック表現を生成するための強力な手がかりであると主張している。
提案モデルでは,人-対象のペアの視覚的特徴とHOIラベルの単語埋め込みを入力とし,それらを視覚-意味的関節埋め込み空間にマッピングし,類似度を計測して検出結果を得る。
論文 参考訳(メタデータ) (2020-08-14T09:11:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。