論文の概要: NodePiece: Compositional and Parameter-Efficient Representations of
Large Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2106.12144v1
- Date: Wed, 23 Jun 2021 03:51:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-24 15:37:01.271379
- Title: NodePiece: Compositional and Parameter-Efficient Representations of
Large Knowledge Graphs
- Title(参考訳): NodePiece: 大きな知識グラフの合成とパラメータ効率の良い表現
- Authors: Mikhail Galkin, Jiapeng Wu, Etienne Denis, William L. Hamilton
- Abstract要約: 固定サイズのエンティティ語彙を学習するためのアンカーベースのアプローチであるNodePieceを提案する。
NodePieceでは、サブワード/サブエンティティユニットの語彙は、既知の関係型を持つグラフのアンカーノードから構築される。
実験の結果、NodePieceはノード分類、リンク予測、関係予測タスクで競合的に動作していることがわかった。
- 参考スコア(独自算出の注目度): 15.289356276538662
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional representation learning algorithms for knowledge graphs (KG) map
each entity to a unique embedding vector. Such a shallow lookup results in a
linear growth of memory consumption for storing the embedding matrix and incurs
high computational costs when working with real-world KGs. Drawing parallels
with subword tokenization commonly used in NLP, we explore the landscape of
more parameter-efficient node embedding strategies with possibly sublinear
memory requirements. To this end, we propose NodePiece, an anchor-based
approach to learn a fixed-size entity vocabulary. In NodePiece, a vocabulary of
subword/sub-entity units is constructed from anchor nodes in a graph with known
relation types. Given such a fixed-size vocabulary, it is possible to bootstrap
an encoding and embedding for any entity, including those unseen during
training. Experiments show that NodePiece performs competitively in node
classification, link prediction, and relation prediction tasks while retaining
less than 10% of explicit nodes in a graph as anchors and often having 10x
fewer parameters.
- Abstract(参考訳): 知識グラフ(KG)の従来の表現学習アルゴリズムは、各エンティティを独自の埋め込みベクトルにマッピングする。
このような浅いルックアップは、埋め込み行列を格納するためのメモリ消費の線形増加をもたらし、現実世界のKGを扱う際に高い計算コストを発生させる。
NLPで一般的に使われているサブワードトークン化と平行に描画することで、サブ線形メモリ要求を伴うパラメータ効率の高いノード埋め込み戦略の展望を探る。
そこで我々は,固定サイズのエンティティ語彙を学習するためのアンカーベースアプローチであるnodepieceを提案する。
ノードピースでは、既知の関係型を持つグラフのアンカーノードからサブワード/サブエンティティ単位の語彙を構築する。
このような固定サイズの語彙を考えると、トレーニング中に見えないものを含むあらゆるエンティティのエンコーディングと埋め込みをブートストラップすることができる。
実験によると、NodePieceはノード分類、リンク予測、関係予測タスクにおいて競合的に動作し、グラフ内の明示的なノードの10%未満をアンカーとして保持し、しばしば10倍のパラメータを持つ。
関連論文リスト
- You do not have to train Graph Neural Networks at all on text-attributed graphs [25.044734252779975]
我々は、同じクラスからのテキストエンコーディングがしばしば線形部分空間に集約されるという観察に乗じて、線形GNNモデルであるTrainlessGNNを紹介した。
実験の結果、私たちのトレインレスモデルは、従来の訓練済みのモデルにマッチするか、超えられることがわかった。
論文 参考訳(メタデータ) (2024-04-17T02:52:11Z) - EntailE: Introducing Textual Entailment in Commonsense Knowledge Graph
Completion [54.12709176438264]
Commonsense knowledge graph(CSKG)は、名前付きエンティティ、短いフレーズ、イベントをノードとして表現するために自由形式のテキストを使用する。
現在の手法では意味的類似性を利用してグラフ密度を増大させるが、ノードとその関係のセマンティックな妥当性は未探索である。
そこで本研究では,CSKGノード間の暗黙的な包絡関係を見つけるために,テキストエンテーメントを導入し,同じ概念クラス内のサブグラフ接続ノードを効果的に密度化することを提案する。
論文 参考訳(メタデータ) (2024-02-15T02:27:23Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Conversational Semantic Parsing using Dynamic Context Graphs [68.72121830563906]
汎用知識グラフ(KG)を用いた会話意味解析の課題を,数百万のエンティティと数千のリレーショナルタイプで検討する。
ユーザ発話を実行可能な論理形式にインタラクティブにマッピングできるモデルに焦点を当てる。
論文 参考訳(メタデータ) (2023-05-04T16:04:41Z) - Embedding Compression with Hashing for Efficient Representation Learning
in Large-Scale Graph [21.564894767364397]
グラフニューラルネットワーク(GNN)は、グラフデータに特化したディープラーニングモデルである。
本研究では,各ノードを浮動小数点ベクトルの代わりにビットベクトルでコンパクトに表現するノード埋め込み圧縮法を開発した。
提案手法は,提案手法が提案手法よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2022-08-11T05:43:39Z) - GNNAutoScale: Scalable and Expressive Graph Neural Networks via
Historical Embeddings [51.82434518719011]
GNNAutoScale(GAS)は、任意のメッセージパスGNNを大規模グラフにスケールするためのフレームワークである。
ガスは、前回のトレーニングの繰り返しから過去の埋め込みを利用して計算グラフのサブツリー全体を掘り起こします。
ガスは大規模グラフ上で最先端のパフォーマンスに達する。
論文 参考訳(メタデータ) (2021-06-10T09:26:56Z) - COLOGNE: Coordinated Local Graph Neighborhood Sampling [1.6498361958317633]
グラフノードのような個別の未順序オブジェクトを実数値ベクトルで置き換えることは、グラフデータから学ぶための多くのアプローチの中心である。
ノードベクトル表現の座標がグラフノードであるような離散ノード埋め込みを学習する問題に対処する。
これにより、ノードにもともと存在するすべての属性が保存されているため、グラフの解釈可能な機械学習アルゴリズムを設計する扉が開く。
論文 参考訳(メタデータ) (2021-02-09T11:39:06Z) - Towards Efficient Scene Understanding via Squeeze Reasoning [71.1139549949694]
我々はSqueeze Reasoningと呼ばれる新しいフレームワークを提案する。
空間地図上の情報を伝播するのではなく、まず入力特徴をチャネルワイドなグローバルベクトルに絞ることを学ぶ。
提案手法はエンドツーエンドのトレーニングブロックとしてモジュール化可能であり,既存のネットワークに簡単に接続可能であることを示す。
論文 参考訳(メタデータ) (2020-11-06T12:17:01Z) - Iterative Context-Aware Graph Inference for Visual Dialog [126.016187323249]
本稿では,新しいコンテキスト認識グラフ(CAG)ニューラルネットワークを提案する。
グラフの各ノードは、オブジェクトベース(視覚)と履歴関連(テキスト)コンテキスト表現の両方を含む、共同意味機能に対応している。
論文 参考訳(メタデータ) (2020-04-05T13:09:37Z) - Gossip and Attend: Context-Sensitive Graph Representation Learning [0.5493410630077189]
グラフ表現学習(GRL)は、高次元かつしばしばスパースグラフの低次元ベクトル表現を学習する強力な手法である。
本稿では,Gossip通信にインスパイアされた文脈依存型アルゴリズムGOATと,グラフの構造上の相互注意機構を提案する。
論文 参考訳(メタデータ) (2020-03-30T18:23:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。