論文の概要: LLMs4OM: Matching Ontologies with Large Language Models
- arxiv url: http://arxiv.org/abs/2404.10317v2
- Date: Tue, 23 Apr 2024 10:37:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-24 18:36:58.265622
- Title: LLMs4OM: Matching Ontologies with Large Language Models
- Title(参考訳): LLMs4OM: オントロジーと大規模言語モデルとのマッチング
- Authors: Hamed Babaei Giglou, Jennifer D'Souza, Felix Engel, Sören Auer,
- Abstract要約: オントロジーマッチング(オントロジーマッチング、Ontology Matching、OM)は、異種データの相互運用性と知識共有を整合させる知識統合において重要なタスクである。
OMタスクにおけるLLM(Large Language Models)の有効性を評価するための新しいアプローチであるLLMs4OMフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.14999444543328289
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ontology Matching (OM), is a critical task in knowledge integration, where aligning heterogeneous ontologies facilitates data interoperability and knowledge sharing. Traditional OM systems often rely on expert knowledge or predictive models, with limited exploration of the potential of Large Language Models (LLMs). We present the LLMs4OM framework, a novel approach to evaluate the effectiveness of LLMs in OM tasks. This framework utilizes two modules for retrieval and matching, respectively, enhanced by zero-shot prompting across three ontology representations: concept, concept-parent, and concept-children. Through comprehensive evaluations using 20 OM datasets from various domains, we demonstrate that LLMs, under the LLMs4OM framework, can match and even surpass the performance of traditional OM systems, particularly in complex matching scenarios. Our results highlight the potential of LLMs to significantly contribute to the field of OM.
- Abstract(参考訳): オントロジーマッチング(オントロジーマッチング、Ontology Matching、OM)は、異種オントロジーの整合がデータの相互運用性と知識共有を促進する、知識統合における重要なタスクである。
従来のOMシステムは専門家の知識や予測モデルに依存しており、LLM(Large Language Models)の可能性を限定的に探究している。
OM タスクにおける LLM の有効性を評価するための新しいアプローチである LLMs4OM フレームワークを提案する。
このフレームワークは、2つのモジュールをそれぞれ検索とマッチングに利用し、概念、概念親子、概念子という3つのオントロジー表現にまたがるゼロショットプロンプトによって強化される。
様々なドメインから20個のOMデータセットを用いて総合評価を行い、LLMs4OMフレームワークの下では、特に複雑なマッチングシナリオにおいて、従来のOMシステムの性能にマッチし、さらに上回ることができることを示した。
以上の結果から,OM の分野に大きく貢献する LLM の可能性が浮き彫りになった。
関連論文リスト
- FAC$^2$E: Better Understanding Large Language Model Capabilities by
Dissociating Language and Cognition [57.747888532651]
大規模言語モデル(LLM)は、主に様々なテキスト理解および生成タスクにおける全体的なパフォーマンスによって評価される。
FAC$2$E, FAC$2$Eについて述べる。
論文 参考訳(メタデータ) (2024-02-29T21:05:37Z) - Knowledge Fusion of Large Language Models [73.28202188100646]
本稿では,大規模言語モデル(LLM)における知識融合の概念を紹介する。
我々は、それらの集合的知識と独特な強みを外部化し、それによってターゲットモデルの能力が、どのソースLLMよりも高められるようにします。
この結果から,LLMの融合により,推論やコモンセンス,コード生成など,対象モデルの性能が向上することが確認された。
論文 参考訳(メタデータ) (2024-01-19T05:02:46Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - Agent-OM: Leveraging LLM Agents for Ontology Matching [4.222245509121683]
本研究では,オントロジーマッチングシステムのための新しいエージェント駆動設計パラダイムを提案する。
本稿では,検索とマッチングのための2つのシームズエージェントからなる汎用フレームワークであるAgent-OMを提案する。
本システムは,OMタスクにおける長年の最高性能に非常に近い結果が得られる。
論文 参考訳(メタデータ) (2023-12-01T03:44:54Z) - Towards Vision Enhancing LLMs: Empowering Multimodal Knowledge Storage
and Sharing in LLMs [72.49064988035126]
マルチモーダル大規模言語モデル(MLLM)の強化を目的としたMKS2という手法を提案する。
具体的には、LLMの内部ブロックに組み込まれたコンポーネントであるModular Visual Memoryを導入し、オープンワールドの視覚情報を効率的に保存するように設計されている。
実験により,MKS2は物理的・常識的な知識を必要とする文脈において,LLMの推論能力を大幅に増強することが示された。
論文 参考訳(メタデータ) (2023-11-27T12:29:20Z) - Knowledge Plugins: Enhancing Large Language Models for Domain-Specific
Recommendations [50.81844184210381]
本稿では,大規模言語モデルをDOmain固有のKnowledgEで拡張し,実践的アプリケーション,すなわちDOKEの性能を向上させるためのパラダイムを提案する。
このパラダイムはドメイン知識抽出器に依存し,1)タスクに効果的な知識を準備すること,2)特定のサンプルごとに知識を選択すること,3)LLMで理解可能な方法で知識を表現すること,の3つのステップで動作する。
論文 参考訳(メタデータ) (2023-11-16T07:09:38Z) - ChEF: A Comprehensive Evaluation Framework for Standardized Assessment
of Multimodal Large Language Models [49.48109472893714]
MLLM(Multimodal Large Language Models)は、視覚コンテンツと無数の下流タスクとを相互作用する優れた能力を示す。
本稿では,各MLLMを全体プロファイルし,異なるMLLMを比較した最初の総合評価フレームワーク(ChEF)を提案する。
詳細な実装をすべて公開して、さらなる分析と、新しいレシピやモデルを統合するための使い易いモジュラーツールキットを提供します。
論文 参考訳(メタデータ) (2023-11-05T16:01:40Z) - Examining Inter-Consistency of Large Language Models Collaboration: An
In-depth Analysis via Debate [41.949869545423375]
大きな言語モデル(LLM)は、様々なアプリケーションで印象的な機能を示しているが、それでも様々な矛盾問題に直面している。
LLMが効果的に協力して共有目標のコンセンサスを達成するためには,コモンセンス推論に焦点をあてる。
我々の研究は,LLM間の一貫性の理解に寄与し,今後のコラボレーション手法開発の基礎を築いた。
論文 参考訳(メタデータ) (2023-05-19T11:15:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。