論文の概要: Accelerating Knowledge Graph and Ontology Engineering with Large Language Models
- arxiv url: http://arxiv.org/abs/2411.09601v1
- Date: Thu, 14 Nov 2024 17:21:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-15 15:22:15.786212
- Title: Accelerating Knowledge Graph and Ontology Engineering with Large Language Models
- Title(参考訳): 大規模言語モデルを用いた知識グラフとオントロジー工学の高速化
- Authors: Cogan Shimizu, Pascal Hitzler,
- Abstract要約: 大きな言語モデルは、キーナレッジグラフとオントロジーエンジニアリングタスクの大幅な加速を約束します。
LLMベースの知識グラフとオントロジー工学を新たな研究分野として位置づける。
- 参考スコア(独自算出の注目度): 1.4502611532302039
- License:
- Abstract: Large Language Models bear the promise of significant acceleration of key Knowledge Graph and Ontology Engineering tasks, including ontology modeling, extension, modification, population, alignment, as well as entity disambiguation. We lay out LLM-based Knowledge Graph and Ontology Engineering as a new and coming area of research, and argue that modular approaches to ontologies will be of central importance.
- Abstract(参考訳): 大規模言語モデルは、オントロジーモデリング、拡張、修正、人口、アライメント、およびエンティティの曖昧さを含む、重要な知識グラフとオントロジーエンジニアリングタスクの大幅な加速を約束する。
LLMベースの知識グラフとオントロジーエンジニアリングを新たな研究分野として位置づけ、オントロジーへのモジュラーアプローチが重要となると論じます。
関連論文リスト
- Deep Learning and Machine Learning -- Object Detection and Semantic Segmentation: From Theory to Applications [17.571124565519263]
本は、機械学習とディープラーニングにおける最先端の進歩をカバーしている。
畳み込みニューラルネットワーク(CNN)、YOLOアーキテクチャ、DeTRのようなトランスフォーマーベースのアプローチに重点を置いている。
また、人工知能(AI)技術と拡張オブジェクト検出のための大規模言語モデルの統合も検討している。
論文 参考訳(メタデータ) (2024-10-21T02:10:49Z) - Model Merging in LLMs, MLLMs, and Beyond: Methods, Theories, Applications and Opportunities [89.40778301238642]
モデルマージは、機械学習コミュニティにおける効率的なエンパワーメント技術である。
これらの手法の体系的かつ徹底的なレビューに関する文献には大きなギャップがある。
論文 参考訳(メタデータ) (2024-08-14T16:58:48Z) - Retrieval-Enhanced Machine Learning: Synthesis and Opportunities [60.34182805429511]
検索エンハンスメントは機械学習(ML)の幅広い範囲に拡張できる
この研究は、MLの様々な領域の文献を、現在の文献から欠落している一貫した表記で合成することで、このパラダイムの正式なフレームワークであるRetrieval-Enhanced Machine Learning (REML)を導入する。
本研究の目的は、様々な分野の研究者に対して、検索強化モデルの包括的、正式に構造化された枠組みを付与し、学際的な将来の研究を促進することである。
論文 参考訳(メタデータ) (2024-07-17T20:01:21Z) - Ontology Embedding: A Survey of Methods, Applications and Resources [54.3453925775069]
オントロジはドメイン知識とメタデータを表現するために広く使われている。
1つの簡単な解決策は、統計分析と機械学習を統合することである。
埋め込みに関する多くの論文が出版されているが、体系的なレビューの欠如により、研究者はこの分野の包括的な理解を妨げている。
論文 参考訳(メタデータ) (2024-06-16T14:49:19Z) - Advancing Graph Representation Learning with Large Language Models: A
Comprehensive Survey of Techniques [37.60727548905253]
グラフ表現学習(GRL)とLLM(Large Language Models)の統合は、複雑なデータ構造を分析する上で重要な進化である。
このコラボレーションは、LLMの洗練された言語機能を活用して、グラフモデルの文脈的理解と適応性を改善する。
LLMをグラフ領域に統合する研究団体が増えているにもかかわらず、コアコンポーネントとオペレーションを深く分析する包括的なレビューは特に欠落している。
論文 参考訳(メタデータ) (2024-02-04T05:51:14Z) - Towards Graph Foundation Models: A Survey and Beyond [66.37994863159861]
ファンデーションモデルは、さまざまな人工知能アプリケーションにおいて重要なコンポーネントとして現れてきた。
基礎モデルがグラフ機械学習研究者を一般化し、適応させる能力は、新しいグラフ学習パラダイムを開発する可能性について議論する。
本稿では,グラフ基礎モデル(GFM)の概念を紹介し,その重要な特徴と基礎技術について概説する。
論文 参考訳(メタデータ) (2023-10-18T09:31:21Z) - A Survey of Large Language Models [81.06947636926638]
言語モデリングは、過去20年間、言語理解と生成のために広く研究されてきた。
近年,大規模コーパス上でのトランスフォーマーモデルの事前学習により,事前学習言語モデル (PLM) が提案されている。
パラメータスケールの違いを識別するために、研究コミュニティは大規模言語モデル (LLM) という用語を提唱した。
論文 参考訳(メタデータ) (2023-03-31T17:28:46Z) - MRKL Systems: A modular, neuro-symbolic architecture that combines large
language models, external knowledge sources and discrete reasoning [50.40151403246205]
巨大な言語モデル(LM)は、自然言語ベースの知識タスクのゲートウェイとして機能する、AIの新しい時代を支えている。
離散的な知識と推論モジュールによって補完される、複数のニューラルモデルによる柔軟なアーキテクチャを定義する。
本稿では,MRKL(Modular Reasoning, Knowledge and Language)システムと呼ばれる,このニューロシンボリックアーキテクチャについて述べる。
論文 参考訳(メタデータ) (2022-05-01T11:01:28Z) - On the Complexity of Learning Description Logic Ontologies [14.650545418986058]
オントロジーはドメイン知識、特に生命科学に関連する領域における知識を表現する一般的な方法である。
学習理論から正確な学習モデルとおそらく正しい学習モデルの形式的な仕様を提供します。
論文 参考訳(メタデータ) (2021-03-25T09:18:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。