論文の概要: Large Language Models as Oracles for Ontology Alignment
- arxiv url: http://arxiv.org/abs/2508.08500v1
- Date: Mon, 11 Aug 2025 22:16:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.244299
- Title: Large Language Models as Oracles for Ontology Alignment
- Title(参考訳): オントロジーアライメントのためのオラクルとしての大規模言語モデル
- Authors: Sviatoslav Lushnei, Dmytro Shumskyi, Severyn Shykula, Ernesto Jimenez-Ruiz, Artur d'Avila Garcez,
- Abstract要約: オントロジーアライメントは、ドメイン間で多様なデータソースを統合する上で重要な役割を果たす。
ループ内アライメントは、非常に正確なマッピングを必要とするアプリケーションに不可欠である。
ドメインエキスパートの代替手段としての大規模言語モデル(MLL)。
- 参考スコア(独自算出の注目度): 0.9786690381850356
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ontology alignment plays a crucial role in integrating diverse data sources across domains. There is a large plethora of systems that tackle the ontology alignment problem, yet challenges persist in producing highly quality correspondences among a set of input ontologies. Human-in-the-loop during the alignment process is essential in applications requiring very accurate mappings. User involvement is, however, expensive when dealing with large ontologies. In this paper, we explore the feasibility of using Large Language Models (LLM) as an alternative to the domain expert. The use of the LLM focuses only on the validation of the subset of correspondences where an ontology alignment system is very uncertain. We have conducted an extensive evaluation over several matching tasks of the Ontology Alignment Evaluation Initiative (OAEI), analysing the performance of several state-of-the-art LLMs using different ontology-driven prompt templates. The LLM results are also compared against simulated Oracles with variable error rates.
- Abstract(参考訳): オントロジーアライメントは、ドメイン間で多様なデータソースを統合する上で重要な役割を果たす。
オントロジーアライメント問題に対処するシステムも数多く存在するが、入力オントロジーの集合の中で高い品質の対応を生み出すことには課題が続いている。
アライメントプロセス中のヒューマン・イン・ザ・ループは、非常に正確なマッピングを必要とするアプリケーションに不可欠である。
しかし、大きなオントロジを扱う場合、ユーザの関与は高価である。
本稿では,Large Language Models (LLM) をドメインエキスパートの代替として活用する可能性について検討する。
LLMの使用は、オントロジーアライメントシステムが非常に不確実な通信のサブセットの検証にのみ焦点が当てられている。
我々は,オントロジー・アライメント評価イニシアチブ(OAEI)の複数のマッチングタスクに対して,様々なオントロジー駆動型プロンプトテンプレートを用いて,最先端LLMの性能解析を行った。
LLMの結果は、可変誤差率の模擬オラクルと比較される。
関連論文リスト
- Quantization Meets dLLMs: A Systematic Study of Post-training Quantization for Diffusion LLMs [78.09559830840595]
本稿では拡散に基づく言語モデルの定量化に関する最初の体系的研究について述べる。
異常に大きなアクティベーション値によって特徴付けられるアクティベーションアウトリーチの存在を同定する。
我々は最先端のPTQ手法を実装し、包括的な評価を行う。
論文 参考訳(メタデータ) (2025-08-20T17:59:51Z) - Discrete Tokenization for Multimodal LLMs: A Comprehensive Survey [69.45421620616486]
本研究は、大規模言語モデル(LLM)用に設計された離散トークン化手法の最初の構造的分類と解析である。
古典的および近代的なパラダイムにまたがる8つの代表的なVQ変種を分類し、アルゴリズムの原理を分析し、力学を訓練し、LLMパイプラインとの統合に挑戦する。
コードブックの崩壊、不安定な勾配推定、モダリティ固有の符号化制約など、重要な課題を特定する。
論文 参考訳(メタデータ) (2025-07-21T10:52:14Z) - Graft: Integrating the Domain Knowledge via Efficient Parameter Synergy for MLLMs [56.76586846269894]
MLLM(Multimodal Large Language Models)は、様々な領域で成功している。
その重要性にもかかわらず、ドメイン固有のMLLM間の知識共有の研究はほとんど未調査のままである。
専門家機能のモジュール構成を可能にする統一パラメータ統合フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-30T15:07:41Z) - Evaluating Large Language Models for Real-World Engineering Tasks [75.97299249823972]
本稿では,実運用指向のエンジニアリングシナリオから得られた100以上の質問をキュレートしたデータベースを提案する。
このデータセットを用いて、4つの最先端の大規模言語モデル(LLM)を評価する。
以上の結果から,LLMは時間的および構造的推論において強みを示すが,抽象的推論や形式的モデリング,文脈に敏感な工学的論理にはかなり苦労することがわかった。
論文 参考訳(メタデータ) (2025-05-12T14:05:23Z) - LLMs4Life: Large Language Models for Ontology Learning in Life Sciences [10.658387847149195]
既存のLarge Language Models(LLM)は、複数の階層レベル、豊富な相互接続、包括的なカバレッジで生成するのに苦労しています。
我々は,先進的な急進的工学技術を用いたLCMを用いたオントロジー学習のためのNeOn-GPTを拡張した。
本評価は,LLMの学習性を示すもので,長期にわたるモデル性能とスケーラビリティの限界に対する解決策を提供するものである。
論文 参考訳(メタデータ) (2024-12-02T23:31:52Z) - DARG: Dynamic Evaluation of Large Language Models via Adaptive Reasoning Graph [70.79413606968814]
本稿では,適応推論グラフ展開(DARG)によるLCMの動的評価を導入し,複雑性と多様性を制御した現在のベンチマークを動的に拡張する。
具体的には、まず現在のベンチマークでデータポイントの推論グラフを抽出し、それから推論グラフを摂動させて新しいテストデータを生成する。
このような新しく生成されたテストサンプルは、元のベンチマークと同様の言語的多様性を維持しながら、複雑さのレベルが異なる可能性がある。
論文 参考訳(メタデータ) (2024-06-25T04:27:53Z) - Towards Complex Ontology Alignment using Large Language Models [1.3218260503808055]
オントロジーアライメント(オントロジーアライメント)は、異なるラベルとコンテンツ間の関係を検出するWebにおける重要なプロセスである。
近年のLarge Language Models (LLMs) の進歩は,工学的実践の強化に新たな機会をもたらす。
本稿では,LLM技術の複雑なアライメント問題への取り組みについて検討する。
論文 参考訳(メタデータ) (2024-04-16T07:13:22Z) - Large language models as oracles for instantiating ontologies with domain-specific knowledge [0.0]
ドメイン固有の知識を自動的にインスタンス化するドメインに依存しない手法を提案する。
提案手法は,複数回クエリを行い,その応答からクラスとプロパティのインスタンスを生成する。
実験により,本手法は最先端技術よりも最大5倍高い精度を実現した。
論文 参考訳(メタデータ) (2024-04-05T14:04:07Z) - Characterization of Large Language Model Development in the Datacenter [55.9909258342639]
大きな言語モデル(LLM)は、いくつかの変換タスクにまたがって素晴らしいパフォーマンスを示している。
しかし,大規模クラスタ資源を効率よく利用してLCMを開発することは容易ではない。
我々は,GPUデータセンタAcmeから収集した6ヶ月のLDM開発ワークロードの詳細な評価を行った。
論文 参考訳(メタデータ) (2024-03-12T13:31:14Z) - Dividing the Ontology Alignment Task with Semantic Embeddings and
Logic-based Modules [15.904000789557486]
本稿では、埋め込みモデルと論理ベースのモジュールを組み合わせることで、入力マッチングタスクをより小さく、より難易度の高いタスクに正確に分割する手法を提案する。
この結果は,提案手法が実際は適切であり,非常に大規模なニューラルネットワークに対処できないシステムのワークフローに統合可能であることを示唆している。
論文 参考訳(メタデータ) (2020-02-25T14:44:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。