論文の概要: Exploring Large Language Models for Knowledge Graph Completion
- arxiv url: http://arxiv.org/abs/2308.13916v3
- Date: Sun, 10 Sep 2023 17:42:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 18:36:48.697232
- Title: Exploring Large Language Models for Knowledge Graph Completion
- Title(参考訳): 知識グラフ補完のための大規模言語モデル探索
- Authors: Liang Yao, Jiazhen Peng, Chengsheng Mao, Yuan Luo
- Abstract要約: 我々は知識グラフのトリプルをテキストシーケンスとみなし、知識グラフLLMと呼ばれる革新的なフレームワークを導入する。
提案手法では,三重項の実体的記述と関係的記述をプロンプトとして利用し,その応答を予測に利用する。
種々のベンチマーク知識グラフを用いた実験により,三重分類や関係予測といったタスクにおいて,本手法が最先端の性能を達成することを示す。
- 参考スコア(独自算出の注目度): 17.139056629060626
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge graphs play a vital role in numerous artificial intelligence tasks,
yet they frequently face the issue of incompleteness. In this study, we explore
utilizing Large Language Models (LLM) for knowledge graph completion. We
consider triples in knowledge graphs as text sequences and introduce an
innovative framework called Knowledge Graph LLM (KG-LLM) to model these
triples. Our technique employs entity and relation descriptions of a triple as
prompts and utilizes the response for predictions. Experiments on various
benchmark knowledge graphs demonstrate that our method attains state-of-the-art
performance in tasks such as triple classification and relation prediction. We
also find that fine-tuning relatively smaller models (e.g., LLaMA-7B,
ChatGLM-6B) outperforms recent ChatGPT and GPT-4.
- Abstract(参考訳): 知識グラフは多くの人工知能タスクにおいて重要な役割を果たすが、不完全性の問題にしばしば直面する。
本研究では,Large Language Models (LLM) を用いて知識グラフの補完を行う。
我々は知識グラフのトリプルをテキストシーケンスとみなし、これらのトリプルをモデル化するための知識グラフ LLM (KG-LLM) と呼ばれる革新的なフレームワークを導入する。
提案手法では,三重項の実体記述と関係記述を用いて,その応答を予測に利用する。
ベンチマークナレッジグラフを用いた実験により,トリプル分類や関係予測などのタスクにおいて,最先端の性能が得られることが示された。
また、微調整モデル(LLaMA-7B、ChatGLM-6B)が最近のChatGPTおよびGPT-4より優れていることも見出した。
関連論文リスト
- Assessing LLMs Suitability for Knowledge Graph Completion [0.0]
大きな言語モデル(LLM)は知識グラフに関連するタスクを解決するために使用できる。
LLMは、答えを幻覚させることや、結果を非決定論的に出力することが知られている。
論文 参考訳(メタデータ) (2024-05-27T15:04:50Z) - Relations Prediction for Knowledge Graph Completion using Large Language Models [0.0]
我々は,関係予測タスクのために,知識グラフノード名を用いて大きな言語モデルを微調整する。
実験の結果,広く利用されている知識グラフベンチマークにおいて,新たなスコアが得られた。
論文 参考訳(メタデータ) (2024-05-04T19:04:51Z) - Parameter-Efficient Tuning Large Language Models for Graph Representation Learning [62.26278815157628]
Graph-awareを導入します。
GPEFT - グラフ表現学習のための新しい手法。
グラフニューラルネットワーク(GNN)を用いて、隣接するノードからグラフプロンプトに構造情報をエンコードする。
我々は8つの異なるテキストリッチグラフで実施した総合的な実験を通じて,リンク予測評価において hit@1 と Mean Reciprocal Rank (MRR) の平均 2% の改善を観察し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2024-04-28T18:36:59Z) - Narrating Causal Graphs with Large Language Models [1.437446768735628]
本研究では、因果グラフからテキストを生成するための、大規模事前学習言語モデルの能力について検討する。
これらのグラフにエンコードされた因果推論は、医療やマーケティングのような多様なアプリケーションをサポートすることができる。
結果として、生成AIのユーザは、いくつかの例だけでモデルをトレーニングするときに、同様のパフォーマンスが得られるため、将来のアプリケーションをより早くデプロイできる可能性が示唆されている。
論文 参考訳(メタデータ) (2024-03-11T19:19:59Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - A Survey of Knowledge Graph Reasoning on Graph Types: Static, Dynamic,
and Multimodal [57.8455911689554]
知識グラフ推論(KGR)は、知識グラフに基づくマイニング論理則に基づいて、既存の事実から新しい事実を推論することを目的としている。
質問応答やレコメンデーションシステムなど、多くのAIアプリケーションでKGを使うことに大きなメリットがあることが証明されている。
論文 参考訳(メタデータ) (2022-12-12T08:40:04Z) - Tucker decomposition-based Temporal Knowledge Graph Completion [35.56360622521721]
次数4テンソルのタッカー分解にインスパイアされた時間知識グラフ補完のための新しいテンソル分解モデルを構築する。
提案モデルは完全に表現力のあるモデルであることが実証され、いくつかの公開ベンチマークに対して最先端の結果が報告される。
論文 参考訳(メタデータ) (2020-11-16T07:05:52Z) - Investigating Pretrained Language Models for Graph-to-Text Generation [55.55151069694146]
Graph-to-text生成は、グラフベースのデータから流動的なテキストを生成することを目的としている。
本稿では,3つのグラフ領域,つまり表現,ウィキペディア知識グラフ(KG),科学的なKGについて検討する。
我々は, PLM の BART と T5 が新たな最先端の成果を達成し, タスク適応型事前学習戦略が性能をさらに向上することを示す。
論文 参考訳(メタデータ) (2020-07-16T16:05:34Z) - ENT-DESC: Entity Description Generation by Exploring Knowledge Graph [53.03778194567752]
実際には、出力記述が最も重要な知識のみをカバーするため、入力知識は十分以上である可能性がある。
我々は、KG-to-textにおけるこのような実践的なシナリオの研究を容易にするために、大規模で挑戦的なデータセットを導入する。
本稿では,元のグラフ情報をより包括的に表現できるマルチグラフ構造を提案する。
論文 参考訳(メタデータ) (2020-04-30T14:16:19Z) - Exploiting Structured Knowledge in Text via Graph-Guided Representation
Learning [73.0598186896953]
本稿では、知識グラフからのガイダンスを用いて、生テキスト上で学習する2つの自己教師型タスクを提案する。
エンティティレベルのマスキング言語モデルに基づいて、最初のコントリビューションはエンティティマスキングスキームです。
既存のパラダイムとは対照的に,本手法では事前学習時にのみ,知識グラフを暗黙的に使用する。
論文 参考訳(メタデータ) (2020-04-29T14:22:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。