論文の概要: Agent-OM: Leveraging Large Language Models for Ontology Matching
- arxiv url: http://arxiv.org/abs/2312.00326v1
- Date: Fri, 1 Dec 2023 03:44:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-04 15:53:29.363890
- Title: Agent-OM: Leveraging Large Language Models for Ontology Matching
- Title(参考訳): agent-om: オントロジーマッチングに大規模言語モデルを活用する
- Authors: Zhangcheng Qiang, Weiqing Wang, Kerry Taylor
- Abstract要約: 本研究では,オントロジーマッチングシステムのための新しいエージェント駆動設計パラダイムを提案する。
本稿では,単純なプロンプトベースのOMツールを用いて,検索とマッチングのための2つのエージェントからなるフレームワーク,Agent-OMを提案する。
本システムでは,単純なOMタスク上での長年の最高のパフォーマンスに非常に近い結果が得られ,複雑なOMタスクや少数ショットのOMタスクのパフォーマンスが大幅に向上する。
- 参考スコア(独自算出の注目度): 4.745380820466258
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ontology matching (OM) enables semantic interoperability between different
ontologies and resolves their conceptual heterogeneity by aligning related
entities. OM systems currently have two prevailing design paradigms:
conventional knowledge-based expert systems and newer machine learning-based
predictive systems. While large language models (LLMs) and LLM-based agents
have become revolutionary in data engineering and have been applied creatively
in various domains, their potential for OM remains underexplored. This study
introduces a novel agent-powered LLM-based design paradigm for OM systems. With
thoughtful consideration of several specific challenges to leverage LLMs for
OM, we propose a generic framework, namely Agent-OM, consisting of two Siamese
agents for retrieval and matching, with a set of simple prompt-based OM tools.
Our framework is implemented in a proof-of-concept system. Evaluations of three
Ontology Alignment Evaluation Initiative (OAEI) tracks over state-of-the-art OM
systems show that our system can achieve very close results to the best
long-standing performance on simple OM tasks and significantly improve the
performance on complex and few-shot OM tasks.
- Abstract(参考訳): オントロジーマッチング(om)は異なるオントロジー間の意味的相互運用を可能にし、関連するエンティティを整合させることで概念的不均一性を解消する。
従来の知識ベースのエキスパートシステムと、より新しい機械学習ベースの予測システムである。
大規模言語モデル (LLM) と LLM ベースのエージェントは、データ工学において革命的になり、様々な領域で創造的に応用されているが、OM の可能性はまだ未定である。
本研究は,OMシステムのための新しいエージェント駆動LLM設計パラダイムを提案する。
OM に LLM を活用するためのいくつかの具体的な課題を考慮し、単純なプロンプトベースの OM ツールセットを用いて、2 つの Siamese エージェントからなる汎用フレームワークである Agent-OM を提案する。
我々のフレームワークは概念実証システムで実装されている。
3つのオントロジーアライメント評価イニシアチブ(OAEI)トラックを最先端のOMシステム上で評価した結果,本システムは,単純なOMタスク上での長年の最高のパフォーマンスに非常に近い結果を得ることができ,複雑なOMタスクにおける性能を著しく向上させることができることがわかった。
関連論文リスト
- Interactive Continual Learning: Fast and Slow Thinking [18.363276470822427]
本稿では,対話型連続学習(Interactive Continual Learning, ICL)フレームワークを提案する。
System1におけるメモリ検索を改善するために,von Mises-Fisher(vMF)分布に基づくCL-vMF機構を導入する。
また、ハードサンプルを特定するために、von Mises-Fisher Outlier Detection and Interaction (vMF-ODI)戦略を導入する。
論文 参考訳(メタデータ) (2024-03-05T03:37:28Z) - Large Multimodal Agents: A Survey [78.81459893884737]
大規模言語モデル(LLM)は、テキストベースのAIエージェントのパワーで優れたパフォーマンスを実現している。
LLMを利用したAIエージェントをマルチモーダルドメインに拡張することに焦点を当てた、新たな研究トレンドがある。
本総説は, この急速に発展する分野において, 今後の研究に有用な洞察とガイドラインを提供することを目的としている。
論文 参考訳(メタデータ) (2024-02-23T06:04:23Z) - Large Multi-Modal Models (LMMs) as Universal Foundation Models for
AI-Native Wireless Systems [57.41621687431203]
大規模言語モデル (LLM) と基礎モデルは6Gシステムのゲームチェンジャーとして最近注目されている。
本稿では,人工知能(AI)ネイティブネットワークの展開に適したユニバーサルファンデーションモデルを設計するための包括的ビジョンを提案する。
論文 参考訳(メタデータ) (2024-01-30T00:21:41Z) - Omni-SMoLA: Boosting Generalist Multimodal Models with Soft Mixture of
Low-rank Experts [79.82187318830955]
大規模マルチモーダルモデル (LMM) は多くのタスクにまたがって優れた性能を示す。
ジェネラリストのLMMは、タスクの集合をチューニングする際に、しばしばパフォーマンスの劣化に悩まされる。
我々は,Omni-SMoLAを提案する。Omni-SMoLAはSoft MoEアプローチを用いて,多くのマルチモーダルな低ランクの専門家を混在させるアーキテクチャである。
論文 参考訳(メタデータ) (2023-12-01T23:04:27Z) - Compositional Chain-of-Thought Prompting for Large Multimodal Models [50.12526092423589]
もっとも先進的なLMMでさえ、構成的視覚的推論の側面を捉えるのに苦戦している。
本稿では,新しいゼロショット・チェーン・オブ・ノート法であるコンポジション・チェーン・オブ・ノート(CCoT)を提案する。
具体的には、まずLMMを用いてSGを生成し、次にそのSGをプロンプトに使用して応答を生成する。
論文 参考訳(メタデータ) (2023-11-27T22:23:27Z) - Improving Machine Translation with Large Language Models: A Preliminary
Study with Cooperative Decoding [78.66926087162672]
まず,MT 指向 LLM と MT 指向 LLM の長所と短所を総合的に解析し,その長所と短所について検討する。
これらの知見に基づいて,NMT システムを事前翻訳モデルとして,MT 指向 LLM を補足解として扱う Cooperative Decoding (CoDec) を提案する。
WMT22テストセットと新たに収集されたテストセットWebCrawlの結果は、CoDecの有効性と効率を実証している。
論文 参考訳(メタデータ) (2023-11-06T03:41:57Z) - Large Language Model for Multi-objective Evolutionary Optimization [27.769955500670108]
本研究は,MOEA演算子の設計に強力な大規模言語モデル(LLM)を活用する新しいアプローチについて検討する。
適切なプロンプトエンジニアリングにより、ゼロショット方式で分解ベースのMOEA(MOEA/D)のためのブラックボックス探索演算子として、汎用LLMを機能させることに成功した。
さらに, LLMの挙動から学習することで, ランダムな明示的なホワイトボックス演算子を設計し, MOEA/D-LOと呼ばれる分解型MOEAの新バージョンを提案する。
論文 参考訳(メタデータ) (2023-10-19T07:46:54Z) - Theory of Mind for Multi-Agent Collaboration via Large Language Models [5.541408924345408]
本研究では,多エージェント協調型テキストゲームにおけるLarge Language Models (LLMs) ベースのエージェントを,理論オブマインド (ToM) 推論タスクを用いて評価する。
LLMをベースとしたエージェント間の創発的協調行動と高次マインド理論の実証を行った。
論文 参考訳(メタデータ) (2023-10-16T07:51:19Z) - A Survey on Large Language Models for Recommendation [80.01023231943205]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - Machine Learning-Friendly Biomedical Datasets for Equivalence and
Subsumption Ontology Matching [35.76522395991403]
我々は Mondo と UMLS から抽出した 5 つの新しい Ontology Matching (OM) タスクを紹介する。
各タスクは等価性と仮定マッチングの両方を含み、参照マッピングの品質は人間のキュレーションによって保証される。
MLベースのOMシステムと非MLベースのOMシステムの両方において,様々な観点からOM性能を測定するための総合評価フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-06T18:52:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。