論文の概要: Expanding Semantic Knowledge for Zero-shot Graph Embedding
- arxiv url: http://arxiv.org/abs/2103.12491v1
- Date: Tue, 23 Mar 2021 12:31:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-24 21:13:24.480686
- Title: Expanding Semantic Knowledge for Zero-shot Graph Embedding
- Title(参考訳): ゼロショットグラフ埋め込みのための意味知識の拡張
- Authors: Zheng Wang, Ruihang Shao, Changping Wang, Changjun Hu, Chaokun Wang,
Zhiguo Gong
- Abstract要約: 我々はRECTについて深い洞察を与え、その根本的な限界に対処する。
その核となる部分は,その平均特徴ベクトルを用いてクラスプロトタイプを記述するgnnモデルであることを示す。
我々は,その潜在能力を実現するために2つのラベル拡張戦略を提案する。
- 参考スコア(独自算出の注目度): 17.75484073523662
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Zero-shot graph embedding is a major challenge for supervised graph learning.
Although a recent method RECT has shown promising performance, its working
mechanisms are not clear and still needs lots of training data. In this paper,
we give deep insights into RECT, and address its fundamental limits. We show
that its core part is a GNN prototypical model in which a class prototype is
described by its mean feature vector. As such, RECT maps nodes from the
raw-input feature space into an intermediate-level semantic space that connects
the raw-input features to both seen and unseen classes. This mechanism makes
RECT work well on both seen and unseen classes, which however also reduces the
discrimination. To realize its full potentials, we propose two label expansion
strategies. Specifically, besides expanding the labeled node set of seen
classes, we can also expand that of unseen classes. Experiments on real-world
datasets validate the superiority of our methods.
- Abstract(参考訳): ゼロショットグラフ埋め込みは教師付きグラフ学習の大きな課題である。
RECTの最近の手法は有望な性能を示しているが、その動作メカニズムは明確ではなく、まだ多くのトレーニングデータが必要である。
本稿では、RECTに関する深い洞察を与え、その基本的な限界に対処する。
その核となる部分はgnnの原型モデルであり、クラスプロトタイプはその平均特徴ベクトルによって記述される。
そのため、RECTは生のインプット特徴空間から中間レベルのセマンティック空間にノードをマッピングし、生のインプット特徴を見えるクラスと見えないクラスの両方に接続する。
このメカニズムにより、RECTは目に見えるクラスと目に見えないクラスの両方でうまく機能する。
その全可能性を実現するために,ラベル拡張戦略を2つ提案する。
具体的には、目に見えないクラスのラベル付きノードセットを拡張することに加えて、目に見えないクラスの拡張も可能です。
実世界のデータセットの実験は、我々の方法の優越性を検証する。
関連論文リスト
- SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - Expander Graph Propagation [0.0]
本稿では,拡張グラフ上での情報伝達に基づくエレガントなアプローチを提案する。
EGPは、セットアップに最小限の労力を要しながら、上記の懸念に対処できることを示します。
我々の分析は、GNNの過剰な監視に対処する、スケーラブルな方法の新たなクラスへの道を開くものだと信じています。
論文 参考訳(メタデータ) (2022-10-06T15:36:37Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Graph Kernel Neural Networks [53.91024360329517]
本稿では、グラフ上の内部積を計算するカーネル関数であるグラフカーネルを用いて、標準畳み込み演算子をグラフ領域に拡張することを提案する。
これにより、入力グラフの埋め込みを計算する必要のない完全に構造的なモデルを定義することができる。
私たちのアーキテクチャでは,任意の種類のグラフカーネルをプラグインすることが可能です。
論文 参考訳(メタデータ) (2021-12-14T14:48:08Z) - Inferential SIR-GN: Scalable Graph Representation Learning [0.4699313647907615]
グラフ表現学習法は、ネットワーク内のノードの数値ベクトル表現を生成する。
本研究では,ランダムグラフ上で事前学習されたモデルであるInferential SIR-GNを提案し,ノード表現を高速に計算する。
このモデルではノードの構造的役割情報を捉えることができ、ノードやグラフの分類タスクにおいて、目に見えないネットワーク上で優れた性能を示すことができる。
論文 参考訳(メタデータ) (2021-11-08T20:56:37Z) - Towards Efficient Scene Understanding via Squeeze Reasoning [71.1139549949694]
我々はSqueeze Reasoningと呼ばれる新しいフレームワークを提案する。
空間地図上の情報を伝播するのではなく、まず入力特徴をチャネルワイドなグローバルベクトルに絞ることを学ぶ。
提案手法はエンドツーエンドのトレーニングブロックとしてモジュール化可能であり,既存のネットワークに簡単に接続可能であることを示す。
論文 参考訳(メタデータ) (2020-11-06T12:17:01Z) - Learning on Attribute-Missing Graphs [66.76561524848304]
部分ノードのみの属性が利用できるグラフがあり、他の属性が完全に欠落している可能性がある。
一般的なGNNを含む既存のグラフ学習手法では、満足な学習性能が得られない。
我々は,属性欠落グラフのための構造属性変換器(SAT)と呼ばれる新しい分布マッチングベースGNNを開発した。
論文 参考訳(メタデータ) (2020-11-03T11:09:52Z) - Sub-graph Contrast for Scalable Self-Supervised Graph Representation
Learning [21.0019144298605]
既存のグラフニューラルネットワークは、計算量やメモリコストが限られているため、完全なグラフデータで供給される。
textscSubg-Conは、中央ノードとそのサンプルサブグラフ間の強い相関を利用して、地域構造情報をキャプチャすることで提案される。
既存のグラフ表現学習アプローチと比較して、textscSubg-Conは、より弱い監視要件、モデル学習のスケーラビリティ、並列化において、顕著なパフォーマンス上のアドバンテージを持っています。
論文 参考訳(メタデータ) (2020-09-22T01:58:19Z) - CAGNN: Cluster-Aware Graph Neural Networks for Unsupervised Graph
Representation Learning [19.432449825536423]
教師なしグラフ表現学習は、教師なしの低次元ノード埋め込みを学習することを目的としている。
本稿では、自己教師付き手法を用いた教師なしグラフ表現学習のための新しいクラスタ対応グラフニューラルネットワーク(CAGNN)モデルを提案する。
論文 参考訳(メタデータ) (2020-09-03T13:57:18Z) - Unsupervised Graph Embedding via Adaptive Graph Learning [85.28555417981063]
グラフオートエンコーダ(GAE)は、グラフ埋め込みのための表現学習において強力なツールである。
本稿では,2つの新しい教師なしグラフ埋め込み法,適応グラフ学習(BAGE)による教師なしグラフ埋め込み,変分適応グラフ学習(VBAGE)による教師なしグラフ埋め込みを提案する。
いくつかのデータセットに関する実験的研究により、我々の手法がノードクラスタリング、ノード分類、グラフ可視化タスクにおいて、ベースラインよりも優れていることが実証された。
論文 参考訳(メタデータ) (2020-03-10T02:33:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。