論文の概要: Segmented Graph-Bert for Graph Instance Modeling
- arxiv url: http://arxiv.org/abs/2002.03283v1
- Date: Sun, 9 Feb 2020 04:55:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 14:08:36.994685
- Title: Segmented Graph-Bert for Graph Instance Modeling
- Title(参考訳): グラフインスタンスモデリングのためのSegmented Graph-Bert
- Authors: Jiawei Zhang
- Abstract要約: グラフインスタンス表現学習における Graph-BERT の有効性について検討する。
本稿では,SEG-BERTと呼ばれるセグメントアーキテクチャで再設計する。
7つのグラフ・インスタンス・ベンチマーク・データセットを用いてSEG-BERTの有効性を検証した。
- 参考スコア(独自算出の注目度): 10.879701971582502
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In graph instance representation learning, both the diverse graph instance
sizes and the graph node orderless property have been the major obstacles that
render existing representation learning models fail to work. In this paper, we
will examine the effectiveness of GRAPH-BERT on graph instance representation
learning, which was designed for node representation learning tasks originally.
To adapt GRAPH-BERT to the new problem settings, we re-design it with a
segmented architecture instead, which is also named as SEG-BERT (Segmented
GRAPH-BERT) for reference simplicity in this paper. SEG-BERT involves no
node-order-variant inputs or functional components anymore, and it can handle
the graph node orderless property naturally. What's more, SEG-BERT has a
segmented architecture and introduces three different strategies to unify the
graph instance sizes, i.e., full-input, padding/pruning and segment shifting,
respectively. SEG-BERT is pre-trainable in an unsupervised manner, which can be
further transferred to new tasks directly or with necessary fine-tuning. We
have tested the effectiveness of SEG-BERT with experiments on seven graph
instance benchmark datasets, and SEG-BERT can out-perform the comparison
methods on six out of them with significant performance advantages.
- Abstract(参考訳): グラフインスタンス表現学習では、多様なグラフインスタンスサイズとグラフノードの順序のないプロパティの両方が、既存の表現学習モデルが動作しない主な障害となっている。
本稿では,当初ノード表現学習タスク用に設計されたグラフインスタンス表現学習における Graph-BERT の有効性について検討する。
本論文では,新しい問題設定に適用するため,SEG-BERT(Segmented GRAPH-BERT)と呼ばれるセグメントアーキテクチャで再設計する。
SEG-BERTはノード順の入力や機能コンポーネントをもはや含んでおらず、グラフノードの順序なしプロパティを自然に処理することができる。
さらにSEG-BERTにはセグメンテーションアーキテクチャがあり、グラフインスタンスのサイズを統一する3つの戦略、すなわち、フルインプット、パディング/プルーニング、セグメントシフトを導入している。
SEG-BERTは教師なしで事前訓練可能で、新しいタスクに直接、あるいは必要な微調整で転送することができる。
7つのグラフ・インスタンス・ベンチマーク・データセットを用いてSEG-BERTの有効性を検証した。
関連論文リスト
- A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - OpenGraph: Towards Open Graph Foundation Models [20.401374302429627]
グラフニューラルネットワーク(GNN)は、構造情報を符号化するための有望な技術として登場した。
主な課題は、異なる性質を持つグラフデータを一般化することの難しさである。
この課題に対処するために,OpenGraphと呼ばれる新しいグラフ基盤モデルを提案する。
論文 参考訳(メタデータ) (2024-03-02T08:05:03Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - Subgraph Networks Based Contrastive Learning [5.736011243152416]
グラフコントラスト学習(GCL)は、注釈付きデータ不足の問題を解決する。
既存のGCL手法の多くは、グラフ拡張戦略や相互情報推定操作の設計に重点を置いている。
サブグラフネットワークに基づくコントラスト学習(SGNCL)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-06T08:52:44Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - GRATIS: Deep Learning Graph Representation with Task-specific Topology
and Multi-dimensional Edge Features [27.84193444151138]
第1次汎用グラフ表現学習フレームワーク(GRATIS)を提案する。
任意の入力からタスク固有のトポロジーとタスク固有の多次元エッジ特徴を持つ強力なグラフ表現を生成することができる。
私たちのフレームワークは効率的で堅牢で柔軟性があり、異なるバックボーンとグラフニューラルネットワーク(GNN)を組み合わせたプラグイン・アンド・プレイモジュールです。
論文 参考訳(メタデータ) (2022-11-19T18:42:55Z) - Similarity-aware Positive Instance Sampling for Graph Contrastive
Pre-training [82.68805025636165]
トレーニングセット内の既存グラフから直接正のグラフインスタンスを選択することを提案する。
私たちの選択は、特定のドメイン固有のペアワイズ類似度測定に基づいています。
さらに,ノードを動的にマスキングしてグラフ上に均等に分配する適応ノードレベルの事前学習手法を開発した。
論文 参考訳(メタデータ) (2022-06-23T20:12:51Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - Two-view Graph Neural Networks for Knowledge Graph Completion [13.934907240846197]
我々は,エンティティ中心のグラフ構造と関係中心のグラフ構造をキャプチャする,新しいGNNベースの知識グラフ埋め込みモデルWGEを紹介する。
WGEは、知識グラフ補完のための3つの新しい挑戦的なベンチマークデータセットCoDExの最先端のパフォーマンスを得る。
論文 参考訳(メタデータ) (2021-12-16T22:36:17Z) - Inverse Graph Identification: Can We Identify Node Labels Given Graph
Labels? [89.13567439679709]
グラフ識別(GI)は、グラフ学習において長い間研究されており、特定の応用において不可欠である。
本稿では,逆グラフ識別(Inverse Graph Identification, IGI)と呼ばれる新しい問題を定義する。
本稿では,グラフアテンションネットワーク(GAT)を用いたノードレベルのメッセージパッシング処理を,GIのプロトコルの下でシンプルかつ効果的に行う方法を提案する。
論文 参考訳(メタデータ) (2020-07-12T12:06:17Z) - Graph-Bert: Only Attention is Needed for Learning Graph Representations [22.031852733026]
支配的なグラフニューラルネットワーク(GNN)はグラフリンクをオーバーレイに処理し、重大なパフォーマンス問題を引き起こした。
本稿では,新しいグラフニューラルネットワークである Graph-BERT (Graph based BERT) を紹介する。
実験の結果, Graph-BERTは学習効率と効率の両方で既存のGNNより優れていた。
論文 参考訳(メタデータ) (2020-01-15T05:56:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。