論文の概要: LambdaKG: A Library for Pre-trained Language Model-Based Knowledge Graph
Embeddings
- arxiv url: http://arxiv.org/abs/2210.00305v3
- Date: Thu, 14 Sep 2023 07:06:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-15 19:52:10.306221
- Title: LambdaKG: A Library for Pre-trained Language Model-Based Knowledge Graph
Embeddings
- Title(参考訳): LambdaKG: 事前トレーニングされた言語モデルベースの知識グラフ埋め込みのためのライブラリ
- Authors: Xin Xie, Zhoubo Li, Xiaohan Wang, Zekun Xi, Ningyu Zhang
- Abstract要約: 本稿では,知識グラフ補完,質問応答,推薦,知識探索のためのライブラリLambdaKGを紹介する。
LambdaKGはhttps://github.com/zjunlp/PromptKG/tree/main/lambdaKGで公開されている。
- 参考スコア(独自算出の注目度): 32.371086902570205
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge Graphs (KGs) often have two characteristics: heterogeneous graph
structure and text-rich entity/relation information. Text-based KG embeddings
can represent entities by encoding descriptions with pre-trained language
models, but no open-sourced library is specifically designed for KGs with PLMs
at present. In this paper, we present LambdaKG, a library for KGE that equips
with many pre-trained language models (e.g., BERT, BART, T5, GPT-3), and
supports various tasks (e.g., knowledge graph completion, question answering,
recommendation, and knowledge probing). LambdaKG is publicly open-sourced at
https://github.com/zjunlp/PromptKG/tree/main/lambdaKG, with a demo video at
http://deepke.zjukg.cn/lambdakg.mp4 and long-term maintenance.
- Abstract(参考訳): 知識グラフ(KG)は、異種グラフ構造とテキストリッチなエンティティ/リレーショナル情報という2つの特徴を持つことが多い。
テキストベースのkg埋め込みは、事前学習された言語モデルで記述をエンコードすることでエンティティを表現することができるが、現在plmを持つkgs用に特別に設計されたオープンソースライブラリはない。
本稿では,多くの事前学習された言語モデル(BERT,BART,T5,GPT-3)に対応し,様々なタスク(知識グラフ補完,質問応答,レコメンデーション,知識探索など)をサポートするKGE用ライブラリLambdaKGを提案する。
LambdaKGはhttps://github.com/zjunlp/PromptKG/tree/main/lambdaKGで公開されている。
関連論文リスト
- A Prompt-Based Knowledge Graph Foundation Model for Universal In-Context Reasoning [17.676185326247946]
そこで本研究では,テキスト内学習,すなわちKG-ICLを介し,プロンプトに基づくKGファウンデーションモデルを提案する。
クエリにおけるエンティティや関係を発見できないような一般化機能を備えたプロンプトグラフを符号化するために,まず統一トークン化器を提案する。
そこで我々は,プロンプトエンコーディングとKG推論を行う2つのメッセージパッシングニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2024-10-16T06:47:18Z) - Less is More: Making Smaller Language Models Competent Subgraph Retrievers for Multi-hop KGQA [51.3033125256716]
本研究では,小言語モデルで処理される条件生成タスクとして,サブグラフ検索タスクをモデル化する。
2億2千万のパラメータからなる基本生成部分グラフ検索モデルでは,最先端モデルと比較して競合検索性能が向上した。
LLMリーダを接続した最大の3Bモデルは、WebQSPとCWQベンチマークの両方で、SOTAのエンドツーエンドパフォーマンスを新たに設定します。
論文 参考訳(メタデータ) (2024-10-08T15:22:36Z) - Tree-of-Traversals: A Zero-Shot Reasoning Algorithm for Augmenting Black-box Language Models with Knowledge Graphs [72.89652710634051]
知識グラフ(KG)は、信頼性があり、構造化され、ドメイン固有であり、最新の外部知識を提供することで、Large Language Models(LLM)を補完する。
そこで本研究では,ゼロショット推論アルゴリズムであるTree-of-Traversalsを導入する。
論文 参考訳(メタデータ) (2024-07-31T06:01:24Z) - Generate-on-Graph: Treat LLM as both Agent and KG in Incomplete Knowledge Graph Question Answering [87.67177556994525]
我々は、知識グラフ(KG)を探索しながら、新しい実写トリプルを生成する、Generate-on-Graph(GoG)と呼ばれる学習自由な手法を提案する。
GoGはIKGQAでLLMをエージェントとKGの両方として扱うThinking-Searching-Generatingフレームワークを通じて推論を行う。
論文 参考訳(メタデータ) (2024-04-23T04:47:22Z) - PyGraft: Configurable Generation of Synthetic Schemas and Knowledge
Graphs at Your Fingertips [3.5923669681271257]
PyGraftはPythonベースのツールで、カスタマイズされたドメインに依存しないスキーマとKGを生成する。
我々は,グラフベース機械学習(ML)などの領域において,新たなアプローチをベンチマークする上で,より多様なKGの生成を促進することを目的としている。
MLでは、モデルパフォーマンスと一般化能力のより包括的な評価が促進され、利用可能なベンチマークの限られたコレクションを超えることになる。
論文 参考訳(メタデータ) (2023-09-07T13:00:09Z) - Deep Bidirectional Language-Knowledge Graph Pretraining [159.9645181522436]
DRAGONは、テキストとKGを大規模に融合した言語知識基盤モデルを事前学習するための自己教師型アプローチである。
我々のモデルは、入力としてテキストセグメントと関連するKGサブグラフのペアを取り、両モードから情報を双方向に融合する。
論文 参考訳(メタデータ) (2022-10-17T18:02:52Z) - NeuralKG: An Open Source Library for Diverse Representation Learning of
Knowledge Graphs [28.21229825389071]
NeuralKGは知識グラフの多様な表現学習のためのオープンソースライブラリである。
従来のKGE、GNNベースのKGE、ルールベースのKGEを含む3種類の知識グラフ埋め込み(KGE)メソッドを実装している。
論文 参考訳(メタデータ) (2022-02-25T09:13:13Z) - Language Models are Open Knowledge Graphs [75.48081086368606]
近年の深層言語モデルは,事前学習を通じて大規模コーパスから知識を自動取得する。
本稿では,言語モデルに含まれる知識をKGにキャストするための教師なし手法を提案する。
KGは、コーパス上の(微調整なしで)事前訓練された言語モデルの1つの前方パスで構築されていることを示す。
論文 参考訳(メタデータ) (2020-10-22T18:01:56Z) - Toward Subgraph-Guided Knowledge Graph Question Generation with Graph
Neural Networks [53.58077686470096]
知識グラフ(KG)質問生成(QG)は,KGから自然言語質問を生成することを目的とする。
本研究は,KGサブグラフから質問を生成し,回答をターゲットとする,より現実的な環境に焦点を当てる。
論文 参考訳(メタデータ) (2020-04-13T15:43:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。