論文の概要: Agent-OM: Leveraging LLM Agents for Ontology Matching
- arxiv url: http://arxiv.org/abs/2312.00326v3
- Date: Mon, 29 Jul 2024 13:40:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-31 00:26:37.292701
- Title: Agent-OM: Leveraging LLM Agents for Ontology Matching
- Title(参考訳): Agent-OM: オントロジーマッチングのためのLLMエージェントの活用
- Authors: Zhangcheng Qiang, Weiqing Wang, Kerry Taylor,
- Abstract要約: 本研究では,オントロジーマッチングシステムのための新しいエージェント駆動設計パラダイムを提案する。
オントロジーマッチングのためのエージェント-OMw.r.t.エージェントというフレームワークを提案する。
本システムは,OMタスクにおける長年の最高性能に非常に近い結果が得られる。
- 参考スコア(独自算出の注目度): 4.222245509121683
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ontology matching (OM) enables semantic interoperability between different ontologies and resolves their conceptual heterogeneity by aligning related entities. OM systems currently have two prevailing design paradigms: conventional knowledge-based expert systems and newer machine learning-based predictive systems. While large language models (LLMs) and LLM agents have revolutionised data engineering and have been applied creatively in many domains, their potential for OM remains underexplored. This study introduces a novel agent-powered LLM-based design paradigm for OM systems. With consideration of several specific challenges in leveraging LLM agents for OM, we propose a generic framework, namely Agent-OM (w.r.t. Agent for Ontology Matching), consisting of two Siamese agents for retrieval and matching, with a set of simple OM tools. Our framework is implemented in a proof-of-concept system. Evaluations of three Ontology Alignment Evaluation Initiative (OAEI) tracks over state-of-the-art OM systems show that our system can achieve results very close to the long-standing best performance on simple OM tasks and can significantly improve the performance on complex and few-shot OM tasks.
- Abstract(参考訳): オントロジーマッチング(OM)は、異なるオントロジー間のセマンティック相互運用性を可能にし、関連するエンティティを整合させることで、その概念的不均一性を解決する。
OMシステムには、従来の知識ベースのエキスパートシステムと、より新しい機械学習ベースの予測システムという、2つの一般的な設計パラダイムがある。
大規模言語モデル (LLM) と LLM エージェントはデータ工学に革命をもたらし、多くの領域で創造的に応用されているが、OM の可能性はまだ未定である。
本研究は,OMシステムのための新しいエージェント駆動LLM設計パラダイムを提案する。
OM に LLM エージェントを利用する際のいくつかの課題を考慮し、単純な OM ツールセットを用いて、2 つの Siamese エージェントからなる Agent-OM (w.r.t. Agent for Ontology Matching) という汎用フレームワークを提案する。
我々のフレームワークは概念実証システムで実装されている。
3つのオントロジーアライメント評価イニシアチブ (OAEI) のトラックを最先端OMシステム上で評価した結果, 単純なOMタスクにおける長年のベストパフォーマンスに非常に近い結果が得られ, 複雑かつ少ないOMタスクの性能を著しく向上させることができることがわかった。
関連論文リスト
- AgentSquare: Automatic LLM Agent Search in Modular Design Space [16.659969168343082]
大規模言語モデル(LLM)は、幅広い複雑なタスクを処理できるエージェントシステムの急速な成長をもたらした。
Modularized LLM Agent Search (MoLAS) という新しい研究課題を紹介した。
論文 参考訳(メタデータ) (2024-10-08T15:52:42Z) - VisualAgentBench: Towards Large Multimodal Models as Visual Foundation Agents [50.12414817737912]
大規模マルチモーダルモデル(LMM)は、人工知能の新たな時代を迎え、言語と視覚の融合によって、高い能力を持つVisual Foundation Agentを形成する。
既存のベンチマークでは、複雑な実世界の環境でのLMMの可能性を十分に証明できない。
VisualAgentBench (VAB) は、視覚基礎エージェントとしてLMMを訓練し評価するための先駆的なベンチマークである。
論文 参考訳(メタデータ) (2024-08-12T17:44:17Z) - A Comprehensive Review of Multimodal Large Language Models: Performance and Challenges Across Different Tasks [74.52259252807191]
MLLM(Multimodal Large Language Models)は、単一のモダリティシステムの能力を超えた現実世界のアプリケーションの複雑さに対処する。
本稿では,自然言語,視覚,音声などのマルチモーダルタスクにおけるMLLMの応用を体系的に整理する。
論文 参考訳(メタデータ) (2024-08-02T15:14:53Z) - CoMMIT: Coordinated Instruction Tuning for Multimodal Large Language Models [68.64605538559312]
本稿では,MLLM命令のチューニングを理論的・経験的両面から解析する。
そこで本研究では,学習バランスを定量的に評価する尺度を提案する。
さらに,MLLMの生成分布の更新を促進する補助的損失正規化手法を提案する。
論文 参考訳(メタデータ) (2024-07-29T23:18:55Z) - Fast and Slow Generating: An Empirical Study on Large and Small Language Models Collaborative Decoding [27.004817441034795]
大規模言語モデルと小言語モデル(SLM)の協調的復号化は,これらの問題を緩和するための有望な戦略を示す。
両プロセス認知理論に着想を得て,FS-GEN(Fast and Slow Generating)と呼ばれる統合フレームワークを提案する。
このフレームワーク内では、LSMはSystem 2(slow and intention)に、独立したSLMはSystem 1に分類される。
論文 参考訳(メタデータ) (2024-06-18T05:59:28Z) - LLMs4OM: Matching Ontologies with Large Language Models [0.14999444543328289]
オントロジーマッチング(オントロジーマッチング、Ontology Matching、OM)は、異種データの相互運用性と知識共有を整合させる知識統合において重要なタスクである。
OMタスクにおけるLLM(Large Language Models)の有効性を評価するための新しいアプローチであるLLMs4OMフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-16T06:55:45Z) - Large Multimodal Agents: A Survey [78.81459893884737]
大規模言語モデル(LLM)は、テキストベースのAIエージェントのパワーで優れたパフォーマンスを実現している。
LLMを利用したAIエージェントをマルチモーダルドメインに拡張することに焦点を当てた、新たな研究トレンドがある。
本総説は, この急速に発展する分野において, 今後の研究に有用な洞察とガイドラインを提供することを目的としている。
論文 参考訳(メタデータ) (2024-02-23T06:04:23Z) - Large Multi-Modal Models (LMMs) as Universal Foundation Models for
AI-Native Wireless Systems [57.41621687431203]
大規模言語モデル (LLM) と基礎モデルは6Gシステムのゲームチェンジャーとして最近注目されている。
本稿では,人工知能(AI)ネイティブネットワークの展開に適したユニバーサルファンデーションモデルを設計するための包括的ビジョンを提案する。
論文 参考訳(メタデータ) (2024-01-30T00:21:41Z) - Omni-SMoLA: Boosting Generalist Multimodal Models with Soft Mixture of Low-rank Experts [74.40198929049959]
大規模マルチモーダルモデル (LMM) は多くのタスクにまたがって優れた性能を示す。
ジェネラリストのLMMは、タスクの集合をチューニングする際に、しばしばパフォーマンスの劣化に悩まされる。
我々は,Omni-SMoLAを提案する。Omni-SMoLAはSoft MoEアプローチを用いて,多くのマルチモーダルな低ランクの専門家を混在させるアーキテクチャである。
論文 参考訳(メタデータ) (2023-12-01T23:04:27Z) - Theory of Mind for Multi-Agent Collaboration via Large Language Models [5.2767999863286645]
本研究では,多エージェント協調型テキストゲームにおけるLarge Language Models (LLMs) ベースのエージェントを,理論オブマインド (ToM) 推論タスクを用いて評価する。
LLMをベースとしたエージェント間の創発的協調行動と高次マインド理論の実証を行った。
論文 参考訳(メタデータ) (2023-10-16T07:51:19Z) - Machine Learning-Friendly Biomedical Datasets for Equivalence and
Subsumption Ontology Matching [35.76522395991403]
我々は Mondo と UMLS から抽出した 5 つの新しい Ontology Matching (OM) タスクを紹介する。
各タスクは等価性と仮定マッチングの両方を含み、参照マッピングの品質は人間のキュレーションによって保証される。
MLベースのOMシステムと非MLベースのOMシステムの両方において,様々な観点からOM性能を測定するための総合評価フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-06T18:52:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。