論文の概要: SKG-LLM: Developing a Mathematical Model for Stroke Knowledge Graph Construction Using Large Language Models
- arxiv url: http://arxiv.org/abs/2503.06475v1
- Date: Sun, 09 Mar 2025 06:25:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:52:32.097294
- Title: SKG-LLM: Developing a Mathematical Model for Stroke Knowledge Graph Construction Using Large Language Models
- Title(参考訳): SKG-LLM:大規模言語モデルを用いたストローク知識グラフ構築のための数学的モデルの開発
- Authors: Ali Sarabadani, Kheirolah Rahsepar Fard, Hamid Dalvand,
- Abstract要約: 数学的および大規模言語モデル(LLM)を用いた脳卒中関連記事から知識グラフ(KG)を構築する
SKG-LLMは、脳卒中研究におけるKGの精度と深さを高めるために、生体医学文献から複雑な関係を抽出し、整理する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The purpose of this study is to introduce SKG-LLM. A knowledge graph (KG) is constructed from stroke-related articles using mathematical and large language models (LLMs). SKG-LLM extracts and organizes complex relationships from the biomedical literature, using it to increase the accuracy and depth of KG in stroke research. In the proposed method, GPT-4 was used for data pre-processing, and the extraction of embeddings was also done by GPT-4 in the whole KG construction process. The performance of the proposed model was tested with two evaluation criteria: Precision and Recall. For further validation of the proposed model, GPT-4 was used. Compared with Wikidata and WN18RR, the proposed KG-LLM approach performs better, especially in precision and recall. By including GPT-4 in the preprocessing process, the SKG-LLM model achieved a precision score of 0.906 and a recall score of 0.923. Expert reviews further improved the results and increased precision to 0.923 and recall to 0.918. The knowledge graph constructed by SKG-LLM contains 2692 nodes and 5012 edges, which are 13 distinct types of nodes and 24 types of edges.
- Abstract(参考訳): 本研究の目的は,SKG-LLMの導入である。
数学的および大規模言語モデル(LLM)を用いて,脳卒中関連記事から知識グラフ(KG)を構築する。
SKG-LLMは、脳卒中研究におけるKGの精度と深さを高めるために、生体医学文献から複雑な関係を抽出し、整理する。
提案手法では, データ前処理に GPT-4 を用い, 埋込材の抽出にも GPT-4 を用いた。
提案モデルの性能は,精度とリコールの2つの評価基準で検証した。
提案モデルをさらに検証するために, GPT-4を用いた。
WikidataやWN18RRと比較して、提案するKG-LLMアプローチは、特に精度とリコールにおいて、より優れた性能を発揮する。
GPT-4を前処理に含めることで、SKG-LLMモデルは0.906の精度スコアと0.923のリコールスコアを得た。
専門家のレビューは結果をさらに改善し、精度は0.923に、リコールは0.918に向上した。
SKG-LLMによって構築された知識グラフには2692のノードと5012のエッジがあり、13のノードと24のエッジがある。
関連論文リスト
- Knowledge Graph-based Retrieval-Augmented Generation for Schema Matching [3.7548609506798485]
本稿では,大規模言語モデル(LLM)マッチングのための知識グラフに基づく検索型生成モデルを提案する。
特に、KG-RAG4SMはベクトルベース、グラフベース、クエリベースのグラフ検索を導入している。
KG-RAG4SMは、MIMICデータセットの精度とF1スコアにおいて、最先端(SOTA)法を35.89%、30.50%で上回っている。
論文 参考訳(メタデータ) (2025-01-15T09:32:37Z) - Generating Knowledge Graphs from Large Language Models: A Comparative Study of GPT-4, LLaMA 2, and BERT [0.0]
本稿では,大規模言語モデル(LLM)を利用してグラフRAGの知識グラフ(KG)を生成する手法を提案する。
精度,リコール,F1スコア,グラフ編集距離,セマンティック類似度などの指標を用いて,高品質なKGを生成する能力を評価する。
その結果,GPT-4はより優れた意味的忠実度と構造的精度を実現し,LLaMA 2は軽量でドメイン固有のグラフに優れており,BERTはエンティティ・リレーショナル・モデリングにおける課題に対する洞察を提供する。
論文 参考訳(メタデータ) (2024-12-10T11:05:26Z) - Distill-SynthKG: Distilling Knowledge Graph Synthesis Workflow for Improved Coverage and Efficiency [59.6772484292295]
大規模言語モデル(LLM)によって生成される知識グラフ(KG)は、検索・拡張生成(RAG)アプリケーションにとってますます価値が増している。
既存のKG抽出法は、大規模コーパスの処理に非効率なプロンプトベースのアプローチに依存している。
LLMに基づく多段階文書レベルのKGワークフローであるSynthKGを提案する。
我々はまた、RAGのための新しいグラフベースの検索フレームワークを設計する。
論文 参考訳(メタデータ) (2024-10-22T00:47:54Z) - GRIN: GRadient-INformed MoE [132.87651078514122]
Mixture-of-Experts (MoE)モデルは、エキスパートルーティングによるスパース計算により、密度の高いモデルよりも効果的にスケールする。
エキスパートルーティングのためのスパース勾配推定を組み込んだGRIN(GRadient-Informed MoE Training)を導入する。
我々のモデルは6.6Bの活性化パラメータしか持たないが、7Bの密度モデルより優れており、同じデータで訓練された14Bの密度モデルの性能と一致している。
論文 参考訳(メタデータ) (2024-09-18T17:00:20Z) - KG-FIT: Knowledge Graph Fine-Tuning Upon Open-World Knowledge [63.19837262782962]
知識グラフ埋め込み(KGE)技術は、知識グラフ内の実体と関係のコンパクトな表現を学習するために重要である。
本研究では、エンティティクラスタのセマンティックコヒーレントな階層構造を構築するKG-FITを紹介する。
ベンチマークデータセットFB15K-237、YAGO3-10、PrimeKGの実験は、最先端の訓練済み言語モデルに基づく手法よりもKG-FITの方が優れていることを示した。
論文 参考訳(メタデータ) (2024-05-26T03:04:26Z) - Aligning GPTRec with Beyond-Accuracy Goals with Reinforcement Learning [67.71952251641545]
GPTRecはアイテム・バイ・イテムレコメンデーションのためのTop-Kモデルの代替品である。
GPTRecは,従来のグリーディ・リグレード手法よりも精度とセカンダリ・メトリクスのトレードオフが優れていることを示す。
2つのデータセットに対する実験により、GPTRecのNext-K生成アプローチは、古典的なグリージーな再ランク技術よりも精度と二次メトリクスのトレードオフが優れていることが示された。
論文 参考訳(メタデータ) (2024-03-07T19:47:48Z) - Image and Data Mining in Reticular Chemistry Using GPT-4V [5.440238820637818]
GPT-4Vは、ChatGPTまたはAPIを通じてアクセス可能な、拡張された視覚機能を備えた大きな言語モデルである。
本研究は,GPT-4Vが金属-有機化合物の複雑なデータをナビゲートし,得ることができることを示す。
論文 参考訳(メタデータ) (2023-12-09T05:05:25Z) - Disconnected Emerging Knowledge Graph Oriented Inductive Link Prediction [0.0]
我々はDECG-ILP(Disconnect Emerging Knowledge Graph Oriented Inductive Link Prediction)という新しいモデルを提案する。
CLRMは、元のKGとDECG間で共有されるグローバルな関係に基づく意味的特徴を抽出するために開発された。
モジュールGSMは、各リンク周辺の局所部分グラフトポロジ情報をKGで抽出するために提案される。
論文 参考訳(メタデータ) (2022-09-03T10:58:24Z) - KGxBoard: Explainable and Interactive Leaderboard for Evaluation of
Knowledge Graph Completion Models [76.01814380927507]
KGxBoardは、データの意味のあるサブセットを詳細に評価するためのインタラクティブなフレームワークである。
実験では,KGxBoardを用いることで,標準平均シングルスコアメトリクスでは検出が不可能であったことを強調した。
論文 参考訳(メタデータ) (2022-08-23T15:11:45Z) - DSKReG: Differentiable Sampling on Knowledge Graph for Recommendation
with Relational GNN [59.160401038969795]
我々は,GNN(DSKReG)を用いた推薦のための知識グラフの識別可能なサンプリングを提案する。
そこで本研究では,モデル学習手順と組み合わせて,関連する項目の選択を最適化する,識別可能なサンプリング戦略を考案する。
実験の結果,我々のモデルは最先端のKGベースのレコメンデータシステムよりも優れていた。
論文 参考訳(メタデータ) (2021-08-26T16:19:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。