論文の概要: Ontology Revision based on Pre-trained Language Models
- arxiv url: http://arxiv.org/abs/2310.18378v1
- Date: Fri, 27 Oct 2023 00:52:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 19:00:12.356090
- Title: Ontology Revision based on Pre-trained Language Models
- Title(参考訳): 事前学習言語モデルに基づくオントロジー改訂
- Authors: Qiu Ji, Guilin Qi, Yuxin Ye, Jiaye Li, Site Li, Jianjie Ren, Songtao
Lu
- Abstract要約: オントロジーリビジョンは、既存のオントロジーに新しい情報をシームレスに組み込むことを目的としている。
本稿では,公理を区別するための重要な情報を提供する公理意味論について考察する。
満足できない概念を一度に扱えるように適応された修正アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 32.92146634065263
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ontology revision aims to seamlessly incorporate new information into an
existing ontology and plays a crucial role in tasks such as ontology evolution,
ontology maintenance, and ontology alignment. Similar to repair single
ontologies, resolving logical incoherence in the task of ontology revision is
also important and meaningful since incoherence is a main potential factor to
cause inconsistency and reasoning with an inconsistent ontology will obtain
meaningless answers. To deal with this problem, various ontology revision
methods have been proposed to define revision operators and design ranking
strategies for axioms in an ontology. However, they rarely consider axiom
semantics which provides important information to differentiate axioms. On the
other hand, pre-trained models can be utilized to encode axiom semantics, and
have been widely applied in many natural language processing tasks and
ontology-related ones in recent years. Therefore, in this paper, we define four
scoring functions to rank axioms based on a pre-trained model by considering
various information from a rebuttal ontology and its corresponding reliable
ontology. Based on such a scoring function, we propose an ontology revision
algorithm to deal with unsatisfiable concepts at once. If it is hard to resolve
all unsatisfiable concepts in a rebuttal ontology together, an adapted revision
algorithm is designed to deal with them group by group. We conduct experiments
over 19 ontology pairs and compare our algorithms and scoring functions with
existing ones. According to the experiments, it shows that our algorithms could
achieve promising performance. The adapted revision algorithm could improve the
efficiency largely, and at most 96% time could be saved for some ontology
pairs. Some of our scoring functions help a revision algorithm obtain better
results in many cases, especially for the challenging pairs.
- Abstract(参考訳): オントロジーリビジョンは、既存のオントロジーに新しい情報をシームレスに組み込むことを目標とし、オントロジー進化、オントロジー保守、オントロジーアライメントといったタスクにおいて重要な役割を果たす。
単一オントロジーの修復と同様に、オントロジー修正のタスクにおける論理的不整合の解消もまた重要かつ意味のあるものである。
この問題に対処するために、オントロジーの公理に対する修正演算子と設計ランク付け戦略を定義するために、様々なオントロジー修正手法が提案されている。
しかし、公理を区別する重要な情報を提供する公理意味論を考えることは稀である。
一方、事前学習モデルを用いて公理意味論を符号化し、近年多くの自然言語処理タスクやオントロジー関連モデルに広く応用されている。
そこで本稿では,属性オントロジーとそれに対応する信頼性オントロジーからの様々な情報を考慮することにより,事前学習モデルに基づく4つのスコアリング関数をランク付けする。
このようなスコアリング機能に基づいて,満足できない概念を一度に扱えるオントロジー修正アルゴリズムを提案する。
帰納的オントロジーにおいて、全ての不満足な概念を一緒に解決することが難しい場合、適応された修正アルゴリズムがグループごとにそれらを扱うように設計される。
19個のオントロジー対の実験を行い、アルゴリズムとスコアリング関数を既存のものと比較する。
実験によると、我々のアルゴリズムは有望な性能を達成することができた。
適応リビジョンアルゴリズムは効率を大幅に向上させ、少なくとも96%の時間がオントロジのペアで節約できる。
スコアリング機能のいくつかは、リビジョンアルゴリズムが多くのケース、特に挑戦的なペアでより良い結果を得るのに役立つ。
関連論文リスト
- Ontology Completion with Natural Language Inference and Concept Embeddings: An Analysis [26.918368764004796]
本研究では,特定のオントロジーから欠落する有能な知識の発見という課題を,よく研究された分類学拡張タスクの一般化として考察する。
1行の作業は、このタスクを自然言語推論(NLI)問題として扱い、不足した知識を特定するために言語モデルによって取得された知識に依存します。
別の研究の行では、概念埋め込みを使用して、カテゴリベースの帰納のための認知モデルからインスピレーションを得て、異なる概念が共通しているものを特定する。
論文 参考訳(メタデータ) (2024-03-25T21:46:35Z) - Hierarchical Invariance for Robust and Interpretable Vision Tasks at Larger Scales [54.78115855552886]
本稿では、畳み込みニューラルネットワーク(CNN)のような階層型アーキテクチャを用いて、オーバーコンプリート不変量を構築する方法を示す。
オーバーコンプリート性により、そのタスクはニューラルアーキテクチャサーチ(NAS)のような方法で適応的に形成される。
大規模で頑健で解釈可能な視覚タスクの場合、階層的不変表現は伝統的なCNNや不変量に対する効果的な代替物とみなすことができる。
論文 参考訳(メタデータ) (2024-02-23T16:50:07Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - Dual Box Embeddings for the Description Logic EL++ [16.70961576041243]
知識グラフ(KG)と同様に、知識グラフはしばしば不完全であり、それらの維持と構築は困難であることが証明された。
KGsと同様に、有望なアプローチは、潜在ベクトル空間への埋め込みを学習し、基礎となるDLのセマンティクスに固執することである。
そこで本研究では,概念と役割をボックスとして表現した,DL EL++用のBox$2$ELという新しいオントロジー埋め込み手法を提案する。
論文 参考訳(メタデータ) (2023-01-26T14:13:37Z) - Neural Causal Models for Counterfactual Identification and Estimation [62.30444687707919]
本稿では,ニューラルモデルによる反事実文の評価について検討する。
まず、神経因果モデル(NCM)が十分に表現可能であることを示す。
第2に,反事実分布の同時同定と推定を行うアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-09-30T18:29:09Z) - Repairing $\mathcal{EL}$ Ontologies Using Weakening and Completing [5.625946422295428]
ドメインエキスパートの検証作業量と、正確性と完全性の観点からの完全性の品質との間にはトレードオフがあることを示す。
論文 参考訳(メタデータ) (2022-07-31T18:15:24Z) - Semantic Search for Large Scale Clinical Ontologies [63.71950996116403]
本稿では,大規模臨床語彙検索システムを構築するための深層学習手法を提案する。
本稿では,意味学習データに基づくトレーニングデータを生成するTriplet-BERTモデルを提案する。
このモデルは,5つの実ベンチマークデータセットを用いて評価され,提案手法は自由テキストから概念,概念まで,概念語彙の検索において高い結果が得られることを示す。
論文 参考訳(メタデータ) (2022-01-01T05:15:42Z) - Probing Classifiers: Promises, Shortcomings, and Alternatives [28.877572447481683]
探索型分類器は自然言語処理のディープニューラルネットワークモデルを解釈・解析するための重要な手法の1つである。
この記事では、Probing Classifiersフレームワークを批判的にレビューし、欠点、改善、代替アプローチを強調します。
論文 参考訳(メタデータ) (2021-02-24T18:36:14Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z) - Developing Constrained Neural Units Over Time [81.19349325749037]
本稿では,既存のアプローチと異なるニューラルネットワークの定義方法に焦点をあてる。
ニューラルネットワークの構造は、データとの相互作用にも拡張される制約の特別なクラスによって定義される。
提案した理論は時間領域にキャストされ, データを順序づけられた方法でネットワークに提示する。
論文 参考訳(メタデータ) (2020-09-01T09:07:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。