論文の概要: Agent-OM: Leveraging Large Language Models for Ontology Matching
- arxiv url: http://arxiv.org/abs/2312.00326v1
- Date: Fri, 1 Dec 2023 03:44:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-04 15:53:29.363890
- Title: Agent-OM: Leveraging Large Language Models for Ontology Matching
- Title(参考訳): agent-om: オントロジーマッチングに大規模言語モデルを活用する
- Authors: Zhangcheng Qiang, Weiqing Wang, Kerry Taylor
- Abstract要約: 本研究では,オントロジーマッチングシステムのための新しいエージェント駆動設計パラダイムを提案する。
本稿では,単純なプロンプトベースのOMツールを用いて,検索とマッチングのための2つのエージェントからなるフレームワーク,Agent-OMを提案する。
本システムでは,単純なOMタスク上での長年の最高のパフォーマンスに非常に近い結果が得られ,複雑なOMタスクや少数ショットのOMタスクのパフォーマンスが大幅に向上する。
- 参考スコア(独自算出の注目度): 4.745380820466258
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ontology matching (OM) enables semantic interoperability between different
ontologies and resolves their conceptual heterogeneity by aligning related
entities. OM systems currently have two prevailing design paradigms:
conventional knowledge-based expert systems and newer machine learning-based
predictive systems. While large language models (LLMs) and LLM-based agents
have become revolutionary in data engineering and have been applied creatively
in various domains, their potential for OM remains underexplored. This study
introduces a novel agent-powered LLM-based design paradigm for OM systems. With
thoughtful consideration of several specific challenges to leverage LLMs for
OM, we propose a generic framework, namely Agent-OM, consisting of two Siamese
agents for retrieval and matching, with a set of simple prompt-based OM tools.
Our framework is implemented in a proof-of-concept system. Evaluations of three
Ontology Alignment Evaluation Initiative (OAEI) tracks over state-of-the-art OM
systems show that our system can achieve very close results to the best
long-standing performance on simple OM tasks and significantly improve the
performance on complex and few-shot OM tasks.
- Abstract(参考訳): オントロジーマッチング(om)は異なるオントロジー間の意味的相互運用を可能にし、関連するエンティティを整合させることで概念的不均一性を解消する。
従来の知識ベースのエキスパートシステムと、より新しい機械学習ベースの予測システムである。
大規模言語モデル (LLM) と LLM ベースのエージェントは、データ工学において革命的になり、様々な領域で創造的に応用されているが、OM の可能性はまだ未定である。
本研究は,OMシステムのための新しいエージェント駆動LLM設計パラダイムを提案する。
OM に LLM を活用するためのいくつかの具体的な課題を考慮し、単純なプロンプトベースの OM ツールセットを用いて、2 つの Siamese エージェントからなる汎用フレームワークである Agent-OM を提案する。
我々のフレームワークは概念実証システムで実装されている。
3つのオントロジーアライメント評価イニシアチブ(OAEI)トラックを最先端のOMシステム上で評価した結果,本システムは,単純なOMタスク上での長年の最高のパフォーマンスに非常に近い結果を得ることができ,複雑なOMタスクにおける性能を著しく向上させることができることがわかった。
関連論文リスト
- AgentSquare: Automatic LLM Agent Search in Modular Design Space [16.659969168343082]
大規模言語モデル(LLM)は、幅広い複雑なタスクを処理できるエージェントシステムの急速な成長をもたらした。
Modularized LLM Agent Search (MoLAS) という新しい研究課題を紹介した。
論文 参考訳(メタデータ) (2024-10-08T15:52:42Z) - VisualAgentBench: Towards Large Multimodal Models as Visual Foundation Agents [50.12414817737912]
大規模マルチモーダルモデル(LMM)は、人工知能の新たな時代を迎え、言語と視覚の融合によって、高い能力を持つVisual Foundation Agentを形成する。
既存のベンチマークでは、複雑な実世界の環境でのLMMの可能性を十分に証明できない。
VisualAgentBench (VAB) は、視覚基礎エージェントとしてLMMを訓練し評価するための先駆的なベンチマークである。
論文 参考訳(メタデータ) (2024-08-12T17:44:17Z) - A Comprehensive Review of Multimodal Large Language Models: Performance and Challenges Across Different Tasks [74.52259252807191]
MLLM(Multimodal Large Language Models)は、単一のモダリティシステムの能力を超えた現実世界のアプリケーションの複雑さに対処する。
本稿では,自然言語,視覚,音声などのマルチモーダルタスクにおけるMLLMの応用を体系的に整理する。
論文 参考訳(メタデータ) (2024-08-02T15:14:53Z) - CoMMIT: Coordinated Instruction Tuning for Multimodal Large Language Models [68.64605538559312]
本稿では,MLLM命令のチューニングを理論的・経験的両面から解析する。
そこで本研究では,学習バランスを定量的に評価する尺度を提案する。
さらに,MLLMの生成分布の更新を促進する補助的損失正規化手法を提案する。
論文 参考訳(メタデータ) (2024-07-29T23:18:55Z) - Fast and Slow Generating: An Empirical Study on Large and Small Language Models Collaborative Decoding [27.004817441034795]
大規模言語モデルと小言語モデル(SLM)の協調的復号化は,これらの問題を緩和するための有望な戦略を示す。
両プロセス認知理論に着想を得て,FS-GEN(Fast and Slow Generating)と呼ばれる統合フレームワークを提案する。
このフレームワーク内では、LSMはSystem 2(slow and intention)に、独立したSLMはSystem 1に分類される。
論文 参考訳(メタデータ) (2024-06-18T05:59:28Z) - LLMs4OM: Matching Ontologies with Large Language Models [0.14999444543328289]
オントロジーマッチング(オントロジーマッチング、Ontology Matching、OM)は、異種データの相互運用性と知識共有を整合させる知識統合において重要なタスクである。
OMタスクにおけるLLM(Large Language Models)の有効性を評価するための新しいアプローチであるLLMs4OMフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-16T06:55:45Z) - Large Multimodal Agents: A Survey [78.81459893884737]
大規模言語モデル(LLM)は、テキストベースのAIエージェントのパワーで優れたパフォーマンスを実現している。
LLMを利用したAIエージェントをマルチモーダルドメインに拡張することに焦点を当てた、新たな研究トレンドがある。
本総説は, この急速に発展する分野において, 今後の研究に有用な洞察とガイドラインを提供することを目的としている。
論文 参考訳(メタデータ) (2024-02-23T06:04:23Z) - Large Multi-Modal Models (LMMs) as Universal Foundation Models for
AI-Native Wireless Systems [57.41621687431203]
大規模言語モデル (LLM) と基礎モデルは6Gシステムのゲームチェンジャーとして最近注目されている。
本稿では,人工知能(AI)ネイティブネットワークの展開に適したユニバーサルファンデーションモデルを設計するための包括的ビジョンを提案する。
論文 参考訳(メタデータ) (2024-01-30T00:21:41Z) - Omni-SMoLA: Boosting Generalist Multimodal Models with Soft Mixture of Low-rank Experts [74.40198929049959]
大規模マルチモーダルモデル (LMM) は多くのタスクにまたがって優れた性能を示す。
ジェネラリストのLMMは、タスクの集合をチューニングする際に、しばしばパフォーマンスの劣化に悩まされる。
我々は,Omni-SMoLAを提案する。Omni-SMoLAはSoft MoEアプローチを用いて,多くのマルチモーダルな低ランクの専門家を混在させるアーキテクチャである。
論文 参考訳(メタデータ) (2023-12-01T23:04:27Z) - Theory of Mind for Multi-Agent Collaboration via Large Language Models [5.2767999863286645]
本研究では,多エージェント協調型テキストゲームにおけるLarge Language Models (LLMs) ベースのエージェントを,理論オブマインド (ToM) 推論タスクを用いて評価する。
LLMをベースとしたエージェント間の創発的協調行動と高次マインド理論の実証を行った。
論文 参考訳(メタデータ) (2023-10-16T07:51:19Z) - Machine Learning-Friendly Biomedical Datasets for Equivalence and
Subsumption Ontology Matching [35.76522395991403]
我々は Mondo と UMLS から抽出した 5 つの新しい Ontology Matching (OM) タスクを紹介する。
各タスクは等価性と仮定マッチングの両方を含み、参照マッピングの品質は人間のキュレーションによって保証される。
MLベースのOMシステムと非MLベースのOMシステムの両方において,様々な観点からOM性能を測定するための総合評価フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-06T18:52:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。