論文の概要: Tensor Convolutional Network for Higher-Order Interaction Prediction in Sparse Tensors
- arxiv url: http://arxiv.org/abs/2503.11786v1
- Date: Fri, 14 Mar 2025 18:22:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 15:59:38.908894
- Title: Tensor Convolutional Network for Higher-Order Interaction Prediction in Sparse Tensors
- Title(参考訳): スパーステンソルにおける高次相互作用予測のためのテンソル畳み込みネットワーク
- Authors: Jun-Gi Jang, Jingrui He, Andrew Margenot, Hanghang Tong,
- Abstract要約: 我々は,トップk相互作用を予測するTF法とシームレスに統合する,正確で互換性のあるテンソル畳み込みネットワークTCNを提案する。
TF法と統合されたTNは,TF法やハイパーエッジ予測法などの競合よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 74.31355755781343
- License:
- Abstract: Many real-world data, such as recommendation data and temporal graphs, can be represented as incomplete sparse tensors where most entries are unobserved. For such sparse tensors, identifying the top-k higher-order interactions that are most likely to occur among unobserved ones is crucial. Tensor factorization (TF) has gained significant attention in various tensor-based applications, serving as an effective method for finding these top-k potential interactions. However, existing TF methods primarily focus on effectively fusing latent vectors of entities, which limits their expressiveness. Since most entities in sparse tensors have only a few interactions, their latent representations are often insufficiently trained. In this paper, we propose TCN, an accurate and compatible tensor convolutional network that integrates seamlessly with existing TF methods for predicting higher-order interactions. We design a highly effective encoder to generate expressive latent vectors of entities. To achieve this, we propose to (1) construct a graph structure derived from a sparse tensor and (2) develop a relation-aware encoder, TCN, that learns latent representations of entities by leveraging the graph structure. Since TCN complements traditional TF methods, we seamlessly integrate TCN with existing TF methods, enhancing the performance of predicting top-k interactions. Extensive experiments show that TCN integrated with a TF method outperforms competitors, including TF methods and a hyperedge prediction method. Moreover, TCN is broadly compatible with various TF methods and GNNs (Graph Neural Networks), making it a versatile solution.
- Abstract(参考訳): 多くの実世界のデータ、例えばレコメンデーションデータや時間グラフは、ほとんどのエントリが観測されていない不完全なスパーステンソルとして表現することができる。
このようなスパーステンソルでは、観測されていないものの間で最も起こりそうなトップkの高次相互作用を特定することが重要である。
テンソル因子化(TF)は、様々なテンソルベースのアプリケーションにおいて大きな注目を集めており、これらのトップkポテンシャル相互作用を見つける効果的な方法となっている。
しかし、既存のTF法は主に、表現性を制限する実体の潜在ベクトルを効果的に融合することに焦点を当てている。
スパーステンソルのほとんどの実体はわずかな相互作用しか持たないので、その潜在表現はしばしば不十分に訓練されている。
本稿では,高次相互作用を予測するための既存のTF法とシームレスに統合する,正確で互換性のあるテンソル畳み込みネットワークTCNを提案する。
我々は、表現力に富んだエンティティの潜在ベクトルを生成するために、非常に効果的なエンコーダを設計する。
そこで本研究では,(1)スパーステンソルから派生したグラフ構造を構築し,(2)グラフ構造を利用してエンティティの潜在表現を学習する関係認識エンコーダTCNを開発することを提案する。
TCNは従来のTFメソッドを補完するので、TNを既存のTFメソッドとシームレスに統合し、トップkインタラクションの予測性能を向上させる。
大規模な実験により、TNがTF法と統合され、TF法やハイパーエッジ予測法などの競合よりも優れた結果が得られた。
さらに、TNは様々なTFメソッドやGNN(Graph Neural Networks)と広く互換性があり、汎用的なソリューションとなっている。
関連論文リスト
- Fast Disentangled Slim Tensor Learning for Multi-view Clustering [28.950845031752927]
本稿では,マルチビュークラスタリングのための高速離散スリム学習法(DSTL)を提案する。
頑健なPCAにインスパイアされた特徴冗長性の負の影響を軽減するため、DSTLは、潜在する低次元表現を、各ビューに対する意味的非関連部分と意味的関連部分に分解する。
提案手法は計算効率が高く,効果的に解ける。
論文 参考訳(メタデータ) (2024-11-12T09:57:53Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Learning Complete Topology-Aware Correlations Between Relations for Inductive Link Prediction [121.65152276851619]
関係性間の意味的相関は本質的にエッジレベルとエンティティ非依存であることを示す。
本研究では,関係関係のトポロジ・アウェア・コレレーションをモデル化するための新しいサブグラフベース手法,TACOを提案する。
RCNのポテンシャルをさらに活用するために, 完全コモンニアインダストリアルサブグラフを提案する。
論文 参考訳(メタデータ) (2023-09-20T08:11:58Z) - Efficient Relation-aware Neighborhood Aggregation in Graph Neural Networks via Tensor Decomposition [4.041834517339835]
グラフ畳み込みネットワーク(R-GCN)の集約関数にテンソル分解を組み込んだ新しい知識グラフを提案する。
我々のモデルは、関係型によって定義される低ランクテンソルの射影行列を用いて、隣り合う実体の表現を強化する。
我々は,グラフ処理に固有の1-k-kエンコーダ法のトレーニング制限を緩和するために,コントラスト学習にインスパイアされたトレーニング戦略を採用する。
論文 参考訳(メタデータ) (2022-12-11T19:07:34Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Tensor-Train Networks for Learning Predictive Modeling of
Multidimensional Data [0.0]
有望な戦略は、物理的および化学的用途で非常に成功したテンソルネットワークに基づいています。
本研究では, 多次元回帰モデルの重みをテンソルネットワークを用いて学習し, 強力なコンパクト表現を実現することを示した。
TT形式の重みを計算力の低減で近似するための最小二乗を交互に行うアルゴリズムが提案されている。
論文 参考訳(メタデータ) (2021-01-22T16:14:38Z) - Multi-mode Core Tensor Factorization based Low-Rankness and Its
Applications to Tensor Completion [0.0]
低ランクテンソル補完はコンピュータや機械学習で広く使われている。
本稿では,マルチモーダルテンソル化アルゴリズム(MCTF)と低ランク度尺度を併用し,より優れた非スペクトル緩和形式を提案する。
論文 参考訳(メタデータ) (2020-12-03T13:57:00Z) - On the Equivalence of Decoupled Graph Convolution Network and Label
Propagation [60.34028546202372]
いくつかの研究は、カップリングがデカップリングよりも劣っていることを示している。
有効性にもかかわらず、疎結合GCNの作用機構はよく理解されていない。
本稿では,分離GCNの欠陥を克服する適応的学習法(PTA)を提案する。
論文 参考訳(メタデータ) (2020-10-23T13:57:39Z) - Adaptive Learning of Tensor Network Structures [6.407946291544721]
我々はTN形式を利用して汎用的で効率的な適応アルゴリズムを開発し、データからTNの構造とパラメータを学習する。
本アルゴリズムは,任意の微分対象関数を効果的に最適化する少数のパラメータでTN構造を適応的に同定することができる。
論文 参考訳(メタデータ) (2020-08-12T16:41:56Z) - Supervised Learning for Non-Sequential Data: A Canonical Polyadic
Decomposition Approach [85.12934750565971]
特徴相互作用の効率的なモデリングは、非順序的タスクに対する教師あり学習の基盤となる。
この問題を緩和するため、モデルパラメータをテンソルとして暗黙的に表現することが提案されている。
表現性を向上するため,任意の高次元特徴ベクトルに特徴写像を適用できるようにフレームワークを一般化する。
論文 参考訳(メタデータ) (2020-01-27T22:38:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。