論文の概要: Think and Retrieval: A Hypothesis Knowledge Graph Enhanced Medical Large
Language Models
- arxiv url: http://arxiv.org/abs/2312.15883v1
- Date: Tue, 26 Dec 2023 04:49:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 15:55:25.248343
- Title: Think and Retrieval: A Hypothesis Knowledge Graph Enhanced Medical Large
Language Models
- Title(参考訳): 思考と検索: 医学大規模言語モデルの拡張した仮説知識グラフ
- Authors: Xinke Jiang, Ruizhe Zhang, Yongxin Xu, Rihong Qiu, Yue Fang, Zhiyuan
Wang, Jinyi Tang, Hongxin Ding, Xu Chu, Junfeng Zhao, Yasha Wang
- Abstract要約: 我々は、検索補助生成(RAG)とファインチューニング(FT)の2つの戦略に焦点を当てる。
本稿では,医療用LLMの強化に知識グラフを活用した仮説知識グラフ拡張(HyKGE)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 21.24997987257602
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We explore how the rise of Large Language Models (LLMs) significantly impacts
task performance in the field of Natural Language Processing. We focus on two
strategies, Retrieval-Augmented Generation (RAG) and Fine-Tuning (FT), and
propose the Hypothesis Knowledge Graph Enhanced (HyKGE) framework, leveraging a
knowledge graph to enhance medical LLMs. By integrating LLMs and knowledge
graphs, HyKGE demonstrates superior performance in addressing accuracy and
interpretability challenges, presenting potential applications in the medical
domain. Our evaluations using real-world datasets highlight HyKGE's superiority
in providing accurate knowledge with precise confidence, particularly in
complex and difficult scenarios. The code will be available until published.
- Abstract(参考訳): 大規模言語モデル(llm)の台頭が自然言語処理の分野におけるタスクパフォーマンスに与えた影響について考察する。
本稿では,検索機能強化(RAG)とファインチューニング(FT)の2つの戦略に焦点をあて,医療用LLMを強化するための知識グラフを活用した仮説知識グラフ拡張(HyKGE)フレームワークを提案する。
LLMとナレッジグラフを統合することで、HyKGEは正確性と解釈可能性の問題に対処し、医療分野における潜在的な応用を示す上で優れた性能を示す。
実世界のデータセットを用いた評価では,HyKGEが特に複雑で困難なシナリオにおいて,正確な信頼性を持った正確な知識を提供する上で優れていることが強調されている。
コードは公開まで利用可能である。
関連論文リスト
- Large Language Model Meets Graph Neural Network in Knowledge
Distillation [8.145068353170894]
LinguGKDは、追加のデータやモデルパラメータを必要とせずに、学生GNNの予測精度と収束率を大幅に向上させる。
教師のLLMと比較して、蒸留したGNNは、計算とストレージの要求をはるかに少なくした推論速度が優れている。
論文 参考訳(メタデータ) (2024-02-08T18:33:21Z) - Efficient Large Language Models Fine-Tuning On Graphs [23.19795835873144]
Text-Attributed Graphs (TAGs) からの学習は、その幅広い現実世界のアプリケーションのために大きな注目を集めている。
本稿では,TAG上でのLarge Language Models (LLMs) のエンドツーエンド微調整のための新しい,効率的なアプローチについて紹介する。
論文 参考訳(メタデータ) (2023-12-07T22:35:16Z) - Large Language Models on Graphs: A Comprehensive Survey [81.7684686396014]
グラフ上の大規模言語モデルに関連するシナリオとテクニックを体系的にレビューする。
まず,LLMをグラフに適用する可能性シナリオを,純グラフ,テキスト分散グラフ,テキストペアグラフの3つのカテゴリにまとめる。
本稿では,そのような手法の現実的な応用について論じ,オープンソースコードとベンチマークデータセットを要約する。
論文 参考訳(メタデータ) (2023-12-05T14:14:27Z) - Disentangled Representation Learning with Large Language Models for
Text-Attributed Graphs [57.052160123387104]
本稿では,TAGに対するLLMの推論と予測能力を向上させることができるDGTLモデルを提案する。
提案するDGTLモデルでは, グラフ構造情報をGNN層に組み込む。
実験により,提案したDGTLモデルにより,最先端のベースラインよりも優れた性能,あるいは同等の性能が得られることを示した。
論文 参考訳(メタデータ) (2023-10-27T14:00:04Z) - Graph Neural Prompting with Large Language Models [32.97391910476073]
Graph Neural Prompting (GNP)は、知識グラフから有益な知識を学ぶために、事前訓練された言語モデルを支援するための新しいプラグアンドプレイ方式である。
複数のデータセットに対する大規模な実験は、常識的および生物医学的推論タスクにおいて、GNPの優位性を示す。
論文 参考訳(メタデータ) (2023-09-27T06:33:29Z) - Developing a Scalable Benchmark for Assessing Large Language Models in
Knowledge Graph Engineering [0.0]
我々は知識グラフ工学(KGE)に焦点を当てたベンチマークフレームワークを導入する。
有用なツールであるながら、大言語モデルは、ゼロショットプロンプトによる知識グラフ生成を支援するのに相応しいものではない。
論文 参考訳(メタデータ) (2023-08-31T10:31:19Z) - Exploring Large Language Model for Graph Data Understanding in Online
Job Recommendations [63.19448893196642]
本稿では,大規模言語モデルが提供するリッチな文脈情報と意味表現を利用して行動グラフを解析する新しいフレームワークを提案する。
この機能を利用することで、個々のユーザに対してパーソナライズされた、正確なジョブレコメンデーションが可能になる。
論文 参考訳(メタデータ) (2023-07-10T11:29:41Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z) - Text-Augmented Open Knowledge Graph Completion via Pre-Trained Language
Models [53.09723678623779]
本稿では,高品質なクエリプロンプトを自動的に生成し,大規模テキストコーパスからサポート情報を取得するためのTAGREALを提案する。
その結果、TAGREALは2つのベンチマークデータセット上で最先端のパフォーマンスを達成することがわかった。
TAGREALは、限られたトレーニングデータであっても、既存の埋め込みベース、グラフベース、およびPLMベースの手法よりも優れた性能を有することが判明した。
論文 参考訳(メタデータ) (2023-05-24T22:09:35Z) - CoLAKE: Contextualized Language and Knowledge Embedding [81.90416952762803]
文脈型言語と知識埋め込み(CoLAKE)を提案する。
CoLAKEは、言語と知識の両方の文脈化された表現を、拡張された目的によって共同で学習する。
知識駆動タスク、知識探索タスク、言語理解タスクについて実験を行う。
論文 参考訳(メタデータ) (2020-10-01T11:39:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。