論文の概要: Learning Description Logic Ontologies. Five Approaches. Where Do They
Stand?
- arxiv url: http://arxiv.org/abs/2104.01193v1
- Date: Fri, 2 Apr 2021 18:36:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 05:56:28.817850
- Title: Learning Description Logic Ontologies. Five Approaches. Where Do They
Stand?
- Title(参考訳): 記述論理オントロジーを学ぶ。
5つのアプローチ。
どこに立つのか?
- Authors: Ana Ozaki
- Abstract要約: 我々は、記述論理(DL)の作成のために提案された機械学習とデータマイニングのアプローチを強調した。
これらは関連ルールマイニング、形式的概念分析、帰納的論理プログラミング、計算学習理論、ニューラルネットワークに基づいている。
- 参考スコア(独自算出の注目度): 14.650545418986058
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The quest for acquiring a formal representation of the knowledge of a domain
of interest has attracted researchers with various backgrounds into a diverse
field called ontology learning. We highlight classical machine learning and
data mining approaches that have been proposed for (semi-)automating the
creation of description logic (DL) ontologies. These are based on association
rule mining, formal concept analysis, inductive logic programming,
computational learning theory, and neural networks. We provide an overview of
each approach and how it has been adapted for dealing with DL ontologies.
Finally, we discuss the benefits and limitations of each of them for learning
DL ontologies.
- Abstract(参考訳): 興味のある分野の知識を形式的に表現するための探求は、様々な背景を持つ研究者をオントロジー学習と呼ばれる様々な分野に惹きつけている。
我々は、記述論理(DL)オントロジーの作成を自動化するために提案された古典的な機械学習とデータマイニングのアプローチを強調した。
これらは関連ルールマイニング、形式的概念分析、帰納的論理プログラミング、計算学習理論、ニューラルネットワークに基づいている。
本稿では,それぞれのアプローチの概要と,DLオントロジーの扱い方について概説する。
最後に、DLオントロジーの学習におけるそれぞれの利点と限界について論じる。
関連論文リスト
- Ontology Embedding: A Survey of Methods, Applications and Resources [54.3453925775069]
オントロジはドメイン知識とメタデータを表現するために広く使われている。
1つの簡単な解決策は、統計分析と機械学習を統合することである。
埋め込みに関する多くの論文が出版されているが、体系的なレビューの欠如により、研究者はこの分野の包括的な理解を妨げている。
論文 参考訳(メタデータ) (2024-06-16T14:49:19Z) - A Short Review for Ontology Learning: Stride to Large Language Models Trend [1.7142222335232333]
オントロジーは、Webアプリケーション内で共有される知識の形式的な表現を提供する。
新しいアプローチのトレンドは、オントロジー学習を強化するために、大きな言語モデル(LLM)に依存している。
論文 参考訳(メタデータ) (2024-04-23T12:47:31Z) - Position: Topological Deep Learning is the New Frontier for Relational Learning [51.05869778335334]
トポロジカルディープラーニング(TDL)は、トポロジカルな特徴を用いてディープラーニングモデルを理解し設計する、急速に進化する分野である。
本稿では,TDLがリレーショナル学習の新たなフロンティアであることを示す。
論文 参考訳(メタデータ) (2024-02-14T00:35:10Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - Lattice-preserving $\mathcal{ALC}$ ontology embeddings with saturation [50.05281461410368]
OWL表現の埋め込みを生成するため,順序保存型埋め込み法を提案する。
本手法は,いくつかの知識ベース完了タスクにおいて,最先端の組込み手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-11T22:27:51Z) - Dual Box Embeddings for the Description Logic EL++ [16.70961576041243]
知識グラフ(KG)と同様に、知識グラフはしばしば不完全であり、それらの維持と構築は困難であることが証明された。
KGsと同様に、有望なアプローチは、潜在ベクトル空間への埋め込みを学習し、基礎となるDLのセマンティクスに固執することである。
そこで本研究では,概念と役割をボックスとして表現した,DL EL++用のBox$2$ELという新しいオントロジー埋め込み手法を提案する。
論文 参考訳(メタデータ) (2023-01-26T14:13:37Z) - Bayesian Learning for Neural Networks: an algorithmic survey [95.42181254494287]
この自己完結型調査は、ベイズ学習ニューラルネットワークの原理とアルゴリズムを読者に紹介する。
アクセシブルで実践的な視点からこのトピックを紹介します。
論文 参考訳(メタデータ) (2022-11-21T21:36:58Z) - On the Complexity of Learning Description Logic Ontologies [14.650545418986058]
オントロジーはドメイン知識、特に生命科学に関連する領域における知識を表現する一般的な方法である。
学習理論から正確な学習モデルとおそらく正しい学習モデルの形式的な仕様を提供します。
論文 参考訳(メタデータ) (2021-03-25T09:18:12Z) - Formalising Concepts as Grounded Abstractions [68.24080871981869]
このレポートは、表現学習が生データから概念を誘導する方法を示しています。
このレポートの主な技術的目標は、表現学習のテクニックが概念空間の格子理論的定式化とどのように結婚できるかを示すことである。
論文 参考訳(メタデータ) (2021-01-13T15:22:01Z) - Plausible Reasoning about EL-Ontologies using Concept Interpolation [27.314325986689752]
本稿では,モデル理論の明確な意味論に基づく帰納的機構を提案する。
我々は、カテゴリーベース誘導の認知モデルと密接に関連している強力なコモンセンス推論機構である推論に焦点を当てた。
論文 参考訳(メタデータ) (2020-06-25T14:19:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。