論文の概要: A Short Review for Ontology Learning: Stride to Large Language Models Trend
- arxiv url: http://arxiv.org/abs/2404.14991v2
- Date: Mon, 17 Jun 2024 05:48:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-11 01:58:23.657829
- Title: A Short Review for Ontology Learning: Stride to Large Language Models Trend
- Title(参考訳): オントロジー学習の短いレビュー:大規模言語モデルの動向
- Authors: Rick Du, Huilong An, Keyu Wang, Weidong Liu,
- Abstract要約: オントロジーは、Webアプリケーション内で共有される知識の形式的な表現を提供する。
新しいアプローチのトレンドは、オントロジー学習を強化するために、大きな言語モデル(LLM)に依存している。
- 参考スコア(独自算出の注目度): 1.7142222335232333
- License:
- Abstract: Ontologies provide formal representation of knowledge shared within Semantic Web applications. Ontology learning involves the construction of ontologies from a given corpus. In the past years, ontology learning has traversed through shallow learning and deep learning methodologies, each offering distinct advantages and limitations in the quest for knowledge extraction and representation. A new trend of these approaches is relying on large language models (LLMs) to enhance ontology learning. This paper gives a review in approaches and challenges of ontology learning. It analyzes the methodologies and limitations of shallow-learning-based and deep-learning-based techniques for ontology learning, and provides comprehensive knowledge for the frontier work of using LLMs to enhance ontology learning. In addition, it proposes several noteworthy future directions for further exploration into the integration of LLMs with ontology learning tasks.
- Abstract(参考訳): オントロジーはセマンティックウェブアプリケーション内で共有される知識の形式表現を提供する。
オントロジー学習は、与えられたコーパスからオントロジーを構築することを含む。
過去数年間、オントロジー学習は浅層学習と深層学習の手法を通じて進化し、それぞれが知識抽出と表現の探求において、明確な利点と限界を提供してきた。
これらのアプローチの新たなトレンドは、オントロジー学習を強化するために、大きな言語モデル(LLM)に依存している。
本稿では,オントロジー学習のアプローチと課題について概観する。
オントロジー学習のための浅層学習および深層学習に基づく手法の方法論と限界を分析し、オントロジー学習を強化するためにLLMを使うことのフロンティアワークに対する包括的知識を提供する。
さらに、LLMとオントロジー学習タスクの統合をさらに探求するために、いくつかの注目すべき今後の方向性を提案する。
関連論文リスト
- Ontology Embedding: A Survey of Methods, Applications and Resources [54.3453925775069]
オントロジはドメイン知識とメタデータを表現するために広く使われている。
1つの簡単な解決策は、統計分析と機械学習を統合することである。
埋め込みに関する多くの論文が出版されているが、体系的なレビューの欠如により、研究者はこの分野の包括的な理解を妨げている。
論文 参考訳(メタデータ) (2024-06-16T14:49:19Z) - Exploring the landscape of large language models: Foundations, techniques, and challenges [8.042562891309414]
この記事では、コンテキスト内学習の力学と微調整アプローチのスペクトルについて光を当てている。
革新的な強化学習フレームワークを通じて、LLMが人間の好みとより緊密に連携する方法について検討する。
LLMデプロイメントの倫理的側面は議論され、マインドフルで責任あるアプリケーションの必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-04-18T08:01:20Z) - Language Evolution with Deep Learning [49.879239655532324]
計算モデリングは言語の出現の研究において重要な役割を担っている。
構造化言語の出現を誘発する可能性のある条件と学習プロセスをシミュレートすることを目的としている。
この章では、最近機械学習の分野に革命をもたらした別の種類の計算モデル、ディープ・ラーニング・モデルについて論じる。
論文 参考訳(メタデータ) (2024-03-18T16:52:54Z) - A Comprehensive Study of Knowledge Editing for Large Language Models [82.65729336401027]
大規模言語モデル(LLM)は、人間のコミュニケーションを忠実に反映したテキストの理解と生成の素晴らしい能力を示している。
本稿では,知識編集の問題を定義し,最先端アプローチの包括的レビューを行う。
我々は,代表的知識編集アプローチの総合的評価のための新しいベンチマークであるKnowEditを紹介した。
論文 参考訳(メタデータ) (2024-01-02T16:54:58Z) - Knowledge-augmented Deep Learning and Its Applications: A Survey [60.221292040710885]
知識強化ディープラーニング(KADL)は、ドメイン知識を特定し、それをデータ効率、一般化可能、解釈可能なディープラーニングのためのディープモデルに統合することを目的としている。
本調査は,既存の研究成果を補足し,知識強化深層学習の一般分野における鳥眼研究の展望を提供する。
論文 参考訳(メタデータ) (2022-11-30T03:44:15Z) - Learning Description Logic Ontologies. Five Approaches. Where Do They
Stand? [14.650545418986058]
我々は、記述論理(DL)の作成のために提案された機械学習とデータマイニングのアプローチを強調した。
これらは関連ルールマイニング、形式的概念分析、帰納的論理プログラミング、計算学習理論、ニューラルネットワークに基づいている。
論文 参考訳(メタデータ) (2021-04-02T18:36:45Z) - On the Complexity of Learning Description Logic Ontologies [14.650545418986058]
オントロジーはドメイン知識、特に生命科学に関連する領域における知識を表現する一般的な方法である。
学習理論から正確な学習モデルとおそらく正しい学習モデルの形式的な仕様を提供します。
論文 参考訳(メタデータ) (2021-03-25T09:18:12Z) - Emerging Trends in Federated Learning: From Model Fusion to Federated X Learning [65.06445195580622]
フェデレートラーニング(Federated Learning)は、データ収集とモデルトレーニングを、マルチパーティの計算とモデルアグリゲーションを通じて分離する新しいパラダイムである。
我々は、他の学習アルゴリズムとともに、フェデレーション学習の焦点を絞った調査を行う。
論文 参考訳(メタデータ) (2021-02-25T15:18:13Z) - Online Structured Meta-learning [137.48138166279313]
現在のオンラインメタ学習アルゴリズムは、グローバルに共有されたメタラーナーを学ぶために限られている。
この制限を克服するオンライン構造化メタラーニング(OSML)フレームワークを提案する。
3つのデータセットの実験は、提案フレームワークの有効性と解釈可能性を示している。
論文 参考訳(メタデータ) (2020-10-22T09:10:31Z) - Meta-Learning in Neural Networks: A Survey [4.588028371034406]
本調査では,現代メタラーニングの展望について述べる。
まずメタラーニングの定義について議論し、関連する分野について位置づける。
そこで我々はメタラーニング手法の空間をより包括的に分析する新しい分類法を提案する。
論文 参考訳(メタデータ) (2020-04-11T16:34:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。