論文の概要: PIE: a Parameter and Inference Efficient Solution for Large Scale
Knowledge Graph Embedding Reasoning
- arxiv url: http://arxiv.org/abs/2204.13957v1
- Date: Fri, 29 Apr 2022 09:06:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-03 00:15:53.227892
- Title: PIE: a Parameter and Inference Efficient Solution for Large Scale
Knowledge Graph Embedding Reasoning
- Title(参考訳): PIE: 大規模知識グラフ埋め込みのためのパラメータと推論効率のよい解法
- Authors: Linlin Chao, Taifeng Wang, Wei Chu
- Abstract要約: PIE, textbfparameter および textbfinference textbfefficient ソリューションを提案する。
テンソル分解法から着想を得た結果, 要素埋め込み行列を低階行列に分解することで, パラメータの半数以上を削減できることがわかった。
モデル推論を高速化するために,よりきめ細かなエンティティタイピングのように見える自己教師付き補助タスクを提案する。
- 参考スコア(独自算出の注目度): 24.29409958504209
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge graph (KG) embedding methods which map entities and relations to
unique embeddings in the KG have shown promising results on many reasoning
tasks. However, the same embedding dimension for both dense entities and sparse
entities will cause either over parameterization (sparse entities) or under
fitting (dense entities). Normally, a large dimension is set to get better
performance. Meanwhile, the inference time grows log-linearly with the number
of entities for all entities are traversed and compared. Both the parameter and
inference become challenges when working with huge amounts of entities. Thus,
we propose PIE, a \textbf{p}arameter and \textbf{i}nference \textbf{e}fficient
solution. Inspired from tensor decomposition methods, we find that decompose
entity embedding matrix into low rank matrices can reduce more than half of the
parameters while maintaining comparable performance. To accelerate model
inference, we propose a self-supervised auxiliary task, which can be seen as
fine-grained entity typing. By randomly masking and recovering entities'
connected relations, the task learns the co-occurrence of entity and relations.
Utilizing the fine grained typing, we can filter unrelated entities during
inference and get targets with possibly sub-linear time requirement.
Experiments on link prediction benchmarks demonstrate the proposed key
capabilities. Moreover, we prove effectiveness of the proposed solution on the
Open Graph Benchmark large scale challenge dataset WikiKG90Mv2 and achieve the
state of the art performance.
- Abstract(参考訳): 知識グラフ (KG) は, エンティティとKG内のユニークな埋め込みとの関係をマッピングする手法であり, 多くの推論タスクにおいて有望な結果を示している。
しかし、密接なエンティティとスパースエンティティの両方に対する同じ埋め込み次元は、パラメータ化(スパースエンティティ)または適合(デンセンスエンティティ)のいずれかを引き起こす。
通常、大きな次元はパフォーマンスを改善するために設定されます。
一方、推論時間は、すべてのエンティティのエンティティの数がトラバースされ比較され、対数直線的に増加する。
大量のエンティティを扱う場合、パラメータと推論の両方が課題になります。
したがって、PIE, a \textbf{p}arameter and \textbf{i}nference \textbf{e}fficient solution を提案する。
テンソル分解法に触発されて、エンティティ埋め込み行列を低ランク行列に分解することで、比較性能を維持しながらパラメータの半分以上を削減できることがわかった。
モデル推論を高速化するために,よりきめ細かなエンティティ型付けが可能な自己教師付き補助タスクを提案する。
ランダムにマスキングし、エンティティの接続関係を回復することにより、タスクはエンティティとリレーションの共起を学習する。
きめ細かいタイピングを利用することで、推論中に無関係なエンティティをフィルタリングし、サブ線形時間要件でターゲットを取得することができます。
リンク予測ベンチマークの実験は、提案する鍵能力を示している。
さらに,Open Graph Benchmark の大規模課題データセット WikiKG90Mv2 上で提案手法の有効性を検証し,その性能を検証した。
関連論文リスト
- Entity Disambiguation via Fusion Entity Decoding [68.77265315142296]
より詳細なエンティティ記述を持つエンティティを曖昧にするためのエンコーダ・デコーダモデルを提案する。
GERBILベンチマークでは、EntQAと比較して、エンド・ツー・エンドのエンティティリンクが+1.5%改善されている。
論文 参考訳(メタデータ) (2024-04-02T04:27:54Z) - EventEA: Benchmarking Entity Alignment for Event-centric Knowledge
Graphs [17.27027602556303]
過去の進歩は偏りと不整合性評価によるものであることが示されています。
我々は、イベント中心のKGに基づいて、異種関係と属性を持つ新しいデータセットを構築した。
この問題に対する新たなアプローチとして,エンティティアライメントのためのタイムアウェアリテラルエンコーダを提案する。
論文 参考訳(メタデータ) (2022-11-05T05:34:21Z) - Explainable Sparse Knowledge Graph Completion via High-order Graph
Reasoning Network [111.67744771462873]
本稿では,スパース知識グラフ(KG)のための新しい説明可能なモデルを提案する。
高次推論をグラフ畳み込みネットワーク、すなわちHoGRNに結合する。
情報不足を緩和する一般化能力を向上させるだけでなく、解釈可能性も向上する。
論文 参考訳(メタデータ) (2022-07-14T10:16:56Z) - Probabilistic Entity Representation Model for Chain Reasoning over
Knowledge Graphs [18.92547855877845]
本稿では,知識グラフ上の論理的推論のための確率的エンティティ表現モデル(PERM)を提案する。
PERMは、エンティティを平均と共分散パラメータで多変量ガウス密度としてエンコードし、意味的位置と滑らかな決定境界をキャプチャする。
われわれは, PERMの薬剤再精製事例研究における能力を示すとともに, 提案された研究が, 現行の方法よりもはるかに優れたF1薬剤を推奨できることを実証した。
論文 参考訳(メタデータ) (2021-10-26T09:26:10Z) - Entity Linking and Discovery via Arborescence-based Supervised
Clustering [35.93568319872986]
本稿では,言及親和性を完全に活用する新しいトレーニングと推論手法を提案する。
我々は,この手法がエンティティ発見に優雅に拡張されていることを示す。
我々はZero-Shot Entity LinkingデータセットとMedMentionsに対するアプローチを評価した。
論文 参考訳(メタデータ) (2021-09-02T23:05:58Z) - EchoEA: Echo Information between Entities and Relations for Entity
Alignment [1.1470070927586016]
本稿では,エンティティ情報を関係に拡散し,エンティティにエコーバックする自己認識機構を活用した新しいフレームワーク Echo Entity Alignment (EchoEA) を提案する。
3つの実世界のクロスランガルデータセットの実験結果は、平均して96%で安定している。
論文 参考訳(メタデータ) (2021-07-07T07:34:21Z) - Unsupervised Knowledge Graph Alignment by Probabilistic Reasoning and
Semantic Embedding [22.123001954919893]
本稿では,確率論的推論とセマンティック埋め込みに基づくPRASEという反復的フレームワークを提案する。
PRASEフレームワークは、異なる埋め込みベースのモデルと互換性があり、複数のデータセットの実験では、その最先端性能が実証されている。
論文 参考訳(メタデータ) (2021-05-12T11:27:46Z) - Cross-Supervised Joint-Event-Extraction with Heterogeneous Information
Networks [61.950353376870154]
Joint-event- Extractは、トリガとエンティティのタグからなるタグセットを備えたシーケンスからシーケンスまでのラベリングタスクである。
トリガやエンティティの抽出を交互に監督するクロススーパーバイザードメカニズム(CSM)を提案する。
我々の手法は、エンティティとトリガー抽出の両方において最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2020-10-13T11:51:17Z) - Joint Semantics and Data-Driven Path Representation for Knowledge Graph
Inference [60.048447849653876]
我々は,KG埋め込みの枠組みにおける説明可能性と一般化のバランスをとる,新しい共同意味論とデータ駆動経路表現を提案する。
提案手法はリンク予測と経路問合せ応答という2つのタスクのクラスで評価される。
論文 参考訳(メタデータ) (2020-10-06T10:24:45Z) - Autoregressive Entity Retrieval [55.38027440347138]
エンティティは、知識の表現と集約の方法の中心にあります。
クエリが与えられたエンティティを検索できることは、エンティティリンクやオープンドメインの質問応答のような知識集約的なタスクに基本となる。
本稿では,自己回帰方式でトークン・バイ・トークンを左から右に生成し,エンティティを検索する最初のシステムであるGENREを提案する。
論文 参考訳(メタデータ) (2020-10-02T10:13:31Z) - Polynomial-Time Exact MAP Inference on Discrete Models with Global
Dependencies [83.05591911173332]
ジャンクションツリーアルゴリズムは、実行時の保証と正確なMAP推論のための最も一般的な解である。
本稿では,ノードのクローン化による新たなグラフ変換手法を提案する。
論文 参考訳(メタデータ) (2019-12-27T13:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。