論文の概要: Sequence-to-Sequence Knowledge Graph Completion and Question Answering
- arxiv url: http://arxiv.org/abs/2203.10321v1
- Date: Sat, 19 Mar 2022 13:01:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-26 19:19:03.065318
- Title: Sequence-to-Sequence Knowledge Graph Completion and Question Answering
- Title(参考訳): シーケンス間知識グラフの補完と質問応答
- Authors: Apoorv Saxena, Adrian Kochsiek, Rainer Gemulla
- Abstract要約: 既製のエンコーダ・デコーダ変換器モデルは,スケーラブルで汎用的なKGEモデルとして機能することを示す。
我々は,KGリンク予測をシーケンス・ツー・シーケンス・タスクとして用い,従来のKGE手法による3つのスコアリングアプローチを自己回帰復号化と交換することで,これを実現する。
- 参考スコア(独自算出の注目度): 8.207403859762044
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge graph embedding (KGE) models represent each entity and relation of
a knowledge graph (KG) with low-dimensional embedding vectors. These methods
have recently been applied to KG link prediction and question answering over
incomplete KGs (KGQA). KGEs typically create an embedding for each entity in
the graph, which results in large model sizes on real-world graphs with
millions of entities. For downstream tasks these atomic entity representations
often need to be integrated into a multi stage pipeline, limiting their
utility. We show that an off-the-shelf encoder-decoder Transformer model can
serve as a scalable and versatile KGE model obtaining state-of-the-art results
for KG link prediction and incomplete KG question answering. We achieve this by
posing KG link prediction as a sequence-to-sequence task and exchange the
triple scoring approach taken by prior KGE methods with autoregressive
decoding. Such a simple but powerful method reduces the model size up to 98%
compared to conventional KGE models while keeping inference time tractable.
After finetuning this model on the task of KGQA over incomplete KGs, our
approach outperforms baselines on multiple large-scale datasets without
extensive hyperparameter tuning.
- Abstract(参考訳): 知識グラフ埋め込み(KGE)モデルは、低次元埋め込みベクトルを持つ知識グラフ(KG)の各実体と関係を表す。
これらの手法は、最近KGリンク予測と不完全KG(KGQA)上の質問応答に適用されている。
kgesは通常、グラフ内の各エンティティの埋め込みを作成し、数百万のエンティティを持つ実世界のグラフで大きなモデルサイズを生成する。
ダウンストリームタスクの場合、これらのアトミックエンティティ表現は、しばしばマルチステージパイプラインに統合され、ユーティリティが制限される。
既成のエンコーダ・デコーダトランスフォーマモデルがスケーラブルで汎用性の高いkgeモデルとして機能し,kgリンク予測や不完全kg質問応答の最先端結果が得られることを示す。
そこで本研究では, 逐次-シーケンスタスクとしてkgリンク予測を行い, 先行kge法と自己回帰復号法を交換する。
このような単純だが強力な手法は、従来のKGEモデルと比較してモデルサイズを最大98%削減し、推論時間を短縮できる。
このモデルを不完全なKGよりもKGQAのタスクで微調整した後、我々のアプローチは、広範囲なハイパーパラメータチューニングを伴わずに、複数の大規模データセットのベースラインを上回ります。
関連論文リスト
- Distill-SynthKG: Distilling Knowledge Graph Synthesis Workflow for Improved Coverage and Efficiency [59.6772484292295]
大規模言語モデル(LLM)によって生成される知識グラフ(KG)は、検索・拡張生成(RAG)アプリケーションにとってますます価値が増している。
既存のKG抽出法は、大規模コーパスの処理に非効率なプロンプトベースのアプローチに依存している。
LLMに基づく多段階文書レベルのKGワークフローであるSynthKGを提案する。
我々はまた、RAGのための新しいグラフベースの検索フレームワークを設計する。
論文 参考訳(メタデータ) (2024-10-22T00:47:54Z) - Task-Oriented GNNs Training on Large Knowledge Graphs for Accurate and Efficient Modeling [5.460112864687281]
本稿では,大規模知識グラフ(KG)を用いたタスク指向HGNN学習におけるTOSG抽出の自動化手法であるKG-TOSAを提案する。
KG-TOSAは、最新のHGNN手法により、トレーニング時間とメモリ使用量を最大70%削減し、精度や推論時間などのモデル性能を向上させる。
論文 参考訳(メタデータ) (2024-03-09T01:17:26Z) - A Comprehensive Study on Knowledge Graph Embedding over Relational
Patterns Based on Rule Learning [49.09125100268454]
KGE(Knowledge Graph Embedding)は、KGC(Knowledge Completion Graph)タスクを解決するための効果的なアプローチであることが証明されている。
関係パターンはKGEモデルの性能において重要な要素である。
我々は,KGEモデルの性能を様々な関係パターン上で向上させるトレーニングフリー手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T17:30:57Z) - Separate-and-Aggregate: A Transformer-based Patch Refinement Model for
Knowledge Graph Completion [28.79628925695775]
本稿では,知識グラフ補完のための新しいトランスフォーマーベースのパッチリファインメントモデル(PatReFormer)を提案する。
我々は4つのKGCベンチマーク(WN18RR, FB15k-237, YAGO37, DB100K)で実験を行った。
実験結果から, 既存のKGC法と標準KGC評価指標との有意な性能向上が得られた。
論文 参考訳(メタデータ) (2023-07-11T06:27:13Z) - Schema First! Learn Versatile Knowledge Graph Embeddings by Capturing
Semantics with MASCHInE [3.174882428337821]
近年,知識グラフ埋め込みモデル (KGEMs) が注目されている。
本研究では,RDF/S情報を活用するKGの小型改良版であるプロトグラフを設計する。
学習されたプロトグラフベースの埋め込みは、KGのセマンティクスをカプセル化することを目的としており、KGEの学習に利用することができる。
論文 参考訳(メタデータ) (2023-06-06T13:22:54Z) - KGxBoard: Explainable and Interactive Leaderboard for Evaluation of
Knowledge Graph Completion Models [76.01814380927507]
KGxBoardは、データの意味のあるサブセットを詳細に評価するためのインタラクティブなフレームワークである。
実験では,KGxBoardを用いることで,標準平均シングルスコアメトリクスでは検出が不可能であったことを強調した。
論文 参考訳(メタデータ) (2022-08-23T15:11:45Z) - GreenKGC: A Lightweight Knowledge Graph Completion Method [32.528770408502396]
GreenKGCは、知識グラフ内のエンティティ間の欠落した関係を見つけることを目的としている。
表現学習、特徴抽出、決定学習の3つのモジュールで構成されている。
低次元では、GreenKGCはほとんどのデータセットでSOTAメソッドより優れている。
論文 参考訳(メタデータ) (2022-08-19T03:33:45Z) - Explainable Sparse Knowledge Graph Completion via High-order Graph
Reasoning Network [111.67744771462873]
本稿では,スパース知識グラフ(KG)のための新しい説明可能なモデルを提案する。
高次推論をグラフ畳み込みネットワーク、すなわちHoGRNに結合する。
情報不足を緩和する一般化能力を向上させるだけでなく、解釈可能性も向上する。
論文 参考訳(メタデータ) (2022-07-14T10:16:56Z) - ExpressivE: A Spatio-Functional Embedding For Knowledge Graph Completion [78.8942067357231]
ExpressivEは、一対の実体を点として埋め込み、仮想三重空間に超平行グラフとして関係を埋め込む。
我々は、ExpressivEが最先端のKGEと競合し、W18RRでさらに優れています。
論文 参考訳(メタデータ) (2022-06-08T23:34:39Z) - Toward Subgraph-Guided Knowledge Graph Question Generation with Graph
Neural Networks [53.58077686470096]
知識グラフ(KG)質問生成(QG)は,KGから自然言語質問を生成することを目的とする。
本研究は,KGサブグラフから質問を生成し,回答をターゲットとする,より現実的な環境に焦点を当てる。
論文 参考訳(メタデータ) (2020-04-13T15:43:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。