論文の概要: Multi-View Collaborative Network Embedding
- arxiv url: http://arxiv.org/abs/2005.08189v2
- Date: Thu, 17 Dec 2020 14:34:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 05:18:12.455051
- Title: Multi-View Collaborative Network Embedding
- Title(参考訳): 多視点協調ネットワーク埋め込み
- Authors: Sezin Kircali Ata, Yuan Fang, Min Wu, Jiaqi Shi, Chee Keong Kwoh and
Xiaoli Li
- Abstract要約: 現実世界のネットワークは複数のビューを持つことが多く、各ビューは共通のノード間の1つのタイプの相互作用を記述する。
従来のシングルビューネットワークとは異なり、複数のビューは相互補完するために異なるセマンティクスを維持している。
低次元表現を学習するためのマルチビューネットワーク埋め込み手法MANEを提案する。
- 参考スコア(独自算出の注目度): 15.030169955615408
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world networks often exist with multiple views, where each view
describes one type of interaction among a common set of nodes. For example, on
a video-sharing network, while two user nodes are linked if they have common
favorite videos in one view, they can also be linked in another view if they
share common subscribers. Unlike traditional single-view networks, multiple
views maintain different semantics to complement each other. In this paper, we
propose MANE, a multi-view network embedding approach to learn low-dimensional
representations. Similar to existing studies, MANE hinges on diversity and
collaboration - while diversity enables views to maintain their individual
semantics, collaboration enables views to work together. However, we also
discover a novel form of second-order collaboration that has not been explored
previously, and further unify it into our framework to attain superior node
representations. Furthermore, as each view often has varying importance w.r.t.
different nodes, we propose MANE+, an attention-based extension of MANE to
model node-wise view importance. Finally, we conduct comprehensive experiments
on three public, real-world multi-view networks, and the results demonstrate
that our models consistently outperform state-of-the-art approaches.
- Abstract(参考訳): 現実世界のネットワークは複数のビューを持つことが多く、各ビューは共通のノード間の1つのタイプの相互作用を記述する。
例えば、ビデオ共有ネットワークでは、2つのユーザーノードが1つのビューに共通のお気に入りのビデオがある場合リンクされるが、共通のサブスクライバーを共有する場合は別のビューでリンクすることもできる。
従来のシングルビューネットワークとは異なり、複数のビューは互いに補完するために異なるセマンティクスを維持する。
本稿では,低次元表現を学習するためのマルチビューネットワーク埋め込み手法MANEを提案する。
多様性はビューを個々のセマンティクスを維持するのを可能にし、コラボレーションはビューを協調させる。
また,これまで検討されていない新たな2次コラボレーション形態を発見し,優れたノード表現を実現するためのフレームワークに統合した。
さらに,各ビューが異なるノードを持つ場合が多いので, mane+ というノード毎のビュー重要度をモデル化するために mane の注意に基づく拡張を提案する。
最後に,実世界の3つのパブリックマルチビューネットワーク上で総合的な実験を行い,本モデルが最先端のアプローチを一貫して上回っていることを示す。
関連論文リスト
- RCNet: Deep Recurrent Collaborative Network for Multi-View Low-Light Image Enhancement [19.751696790765635]
マルチビュー低照度画像の高精細化について検討する。
Recurrent Collaborative Network (RCNet) に基づく深層多視点化フレームワークを提案する。
実験の結果,我々のRCNetは,他の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2024-09-06T15:49:49Z) - Hierarchical Contrastive Learning Enhanced Heterogeneous Graph Neural
Network [59.860534520941485]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、異種情報ネットワーク(HIN)を扱う能力に優れていた。
近年,自己指導型学習は最もエキサイティングな学習パラダイムの1つとなり,ラベルがない場合に大きな可能性を示す。
本稿では,自己教師型HGNNの問題点を考察し,HGNNのための新しいコントラスト学習機構であるHeCoを提案する。
論文 参考訳(メタデータ) (2023-04-24T16:17:21Z) - CS-MLGCN : Multiplex Graph Convolutional Networks for Community Search
in Multiplex Networks [0.0]
本稿では,マルチプレクサネットワークにおけるクエリ駆動グラフ畳み込みネットワークCS-MLGCNを提案する。
地道なコミュニティを持つ実世界のグラフの実験は、得られるソリューションの品質を検証する。
論文 参考訳(メタデータ) (2022-10-17T07:47:19Z) - Deep Contrastive Learning for Multi-View Network Embedding [20.035449838566503]
マルチビューネットワーク埋め込みは、ネットワーク内のノードを低次元ベクトルに投影することを目的としている。
ほとんどの対照的な学習ベースの手法は、主に高品質なグラフ埋め込みに依存している。
マルチビューネットワーク埋め込み(CREME)のための新しいノード間コントラスト学習フレームワークを設計する。
論文 参考訳(メタデータ) (2021-08-16T06:29:18Z) - Bowtie Networks: Generative Modeling for Joint Few-Shot Recognition and
Novel-View Synthesis [39.53519330457627]
本稿では,複数ショット認識と新規ビュー合成という新たな課題を提案する。
我々は、オブジェクト分類器を同時に学習し、新しい視点からそのタイプのオブジェクトの画像を生成することを目的としている。
生成モデルと識別モデルとの相互作用と協調に焦点を当てる。
論文 参考訳(メタデータ) (2020-08-16T19:40:56Z) - Self-Supervised MultiModal Versatile Networks [76.19886740072808]
我々は、ビデオに自然に存在する3つのモダリティ(ビジュアル、オーディオ、言語ストリーム)を活用することで、自己スーパービジョンを用いて表現を学習する。
ビデオ, ビデオテキスト, 画像, 音声タスクに対して, ビデオデータの大規模な収集を訓練したネットワークを, どのように適用できるかを実証する。
論文 参考訳(メタデータ) (2020-06-29T17:50:23Z) - Unsupervised Differentiable Multi-aspect Network Embedding [52.981277420394846]
本稿では,asp2vecと呼ばれるマルチアスペクトネットワーク埋め込みのための新しいエンドツーエンドフレームワークを提案する。
提案するフレームワークは容易に異種ネットワークに拡張できる。
論文 参考訳(メタデータ) (2020-06-07T19:26:20Z) - Flexible Example-based Image Enhancement with Task Adaptive Global
Feature Self-Guided Network [162.14579019053804]
我々は,1つの拡張写像の学習において,我々のモデルが現在の技術状況より優れていることを示す。
このモデルは、複数のマッピングを同時に学習する上で、さらに高いパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-05-13T22:45:07Z) - Generative Partial Multi-View Clustering [133.36721417531734]
本稿では,不完全なマルチビュー問題に対処するため,GP-MVCと呼ばれる生成的部分的マルチビュークラスタリングモデルを提案する。
まず、マルチビューエンコーダネットワークをトレーニングして、一般的な低次元表現を学習し、次にクラスタリング層を使用して複数のビューをまたいだ一貫したクラスタ構造をキャプチャする。
第2に、他のビューが与える共有表現に基づいて、1つのビュー条件の欠落データを生成するために、ビュー固有の生成敵ネットワークを開発する。
論文 参考訳(メタデータ) (2020-03-29T17:48:27Z) - Multi-view Deep Subspace Clustering Networks [64.29227045376359]
マルチビューサブスペースクラスタリングは、相補的な情報の複数のビューを融合することによって、データ固有の構造を発見することを目的としている。
本稿では,MvDSCN(Multi-view Deep Subspace Clustering Networks)を提案する。
MvDSCNはクラスタリング性能を高めるために複数のバックボーンを統合する。
論文 参考訳(メタデータ) (2019-08-06T06:44:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。