論文の概要: A Self-matching Training Method with Annotation Embedding Models for
Ontology Subsumption Prediction
- arxiv url: http://arxiv.org/abs/2402.16278v3
- Date: Sun, 10 Mar 2024 10:04:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 14:01:37.538229
- Title: A Self-matching Training Method with Annotation Embedding Models for
Ontology Subsumption Prediction
- Title(参考訳): オントロジー推定のためのアノテーション埋め込みモデルを用いた自己整合学習法
- Authors: Yukihiro Shiraishi, Ken Kaneiwa
- Abstract要約: In-index Matrix Embedding (InME) と Co-occurrence Matrix Embedding (CoME) の2つのオントロジー埋め込みモデルに対する自己マッチングトレーニング手法を提案する。
自己マッチング学習法は、予測されたスーパークラスがサブクラスに類似しており、オントロジーにおいて他のエンティティに分離されたときに、概念の仮定予測の堅牢性を高める。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, ontology embeddings representing entities in a low-dimensional
space have been proposed for ontology completion. However, the ontology
embeddings for concept subsumption prediction do not address the difficulties
of similar and isolated entities and fail to extract the global information of
annotation axioms from an ontology. In this paper, we propose a self-matching
training method for the two ontology embedding models: Inverted-index Matrix
Embedding (InME) and Co-occurrence Matrix Embedding (CoME). The two embeddings
capture the global and local information in annotation axioms by means of the
occurring locations of each word in a set of axioms and the co-occurrences of
words in each axiom. The self-matching training method increases the robustness
of the concept subsumption prediction when predicted superclasses are similar
to subclasses and are isolated to other entities in an ontology. Our evaluation
experiments show that the self-matching training method with InME outperforms
the existing ontology embeddings for the GO and FoodOn ontologies and that the
method with the concatenation of CoME and OWL2Vec* outperforms them for the
HeLiS ontology.
- Abstract(参考訳): 近年、低次元空間における実体を表すオントロジー埋め込みがオントロジー完備化のために提案されている。
しかし、概念仮定予測のためのオントロジー埋め込みは類似し孤立した実体の難しさに対処せず、注釈公理の全体的情報をオントロジーから取り出すことに失敗している。
本稿では,InME(Inverted-index Matrix Embedding)とCoME(Co-occurrence Matrix Embedding)の2つのオントロジー埋め込みモデルの自己マッチング学習手法を提案する。
この2つの埋め込みは、各単語の公理における発生した位置と各公理における単語の共起によって、グローバルおよびローカル情報をアノテーション公理でキャプチャする。
自己マッチング訓練法は、予測されたスーパークラスがサブクラスに類似し、オントロジーにおいて他のエンティティに分離された場合に、概念推定のロバスト性を高める。
評価実験により,InMEを用いた自己マッチング学習法は,GOおよびFoodOnオントロジーの既存のオントロジー埋め込みよりも優れており,CoMEとOWL2Vec*の結合による手法の方がHeLiSオントロジーよりも優れていることが示された。
関連論文リスト
- Ontology Embedding: A Survey of Methods, Applications and Resources [54.3453925775069]
オントロジはドメイン知識とメタデータを表現するために広く使われている。
1つの簡単な解決策は、統計分析と機械学習を統合することである。
埋め込みに関する多くの論文が出版されているが、体系的なレビューの欠如により、研究者はこの分野の包括的な理解を妨げている。
論文 参考訳(メタデータ) (2024-06-16T14:49:19Z) - Domain Embeddings for Generating Complex Descriptions of Concepts in
Italian Language [65.268245109828]
電子辞書から抽出した言語情報と語彙情報に富んだ分布意味資源を提案する。
リソースは21のドメイン固有の行列と1つの包括的なマトリックスとグラフィカルユーザインタフェースから構成される。
本モデルは,具体的概念知識に直接関連した行列を選択することにより,概念の意味的記述の推論を容易にする。
論文 参考訳(メタデータ) (2024-02-26T15:04:35Z) - Open-Vocabulary Segmentation with Semantic-Assisted Calibration [73.39366775301382]
オープンボキャブラリセグメンテーション(OVS)は,CLIPの文脈に先行して,語彙内およびドメインバイアスの埋め込み空間を校正することで研究される。
オープン語彙セグメンテーションベンチマークにおける最先端性能を実現するために,セマンティック・アシブ・キャリブレーション・ネットワーク(SCAN)を提案する。
論文 参考訳(メタデータ) (2023-12-07T07:00:09Z) - Stable Attractors for Neural networks classification via Ordinary Differential Equations (SA-nODE) [0.9786690381850358]
プリオリは、予め割り当てられた固定安定なアトラクタのセットに対応するように構成されている。
分類を行う固有の能力は、ターゲットの安定なアトラクションのそれぞれに関連するアトラクションの形状の盆地に反映される。
この手法は最先端のディープラーニングアルゴリズムの性能には達しないが、解析的相互作用項を閉じた連続力学系が高性能な分類器として機能することを示す。
論文 参考訳(メタデータ) (2023-11-17T08:30:41Z) - Unleashing the power of Neural Collapse for Transferability Estimation [42.09673383041276]
よく訓練されたモデルは神経崩壊の現象を示す。
本稿では、転送可能性推定のためのFair Collapse(FaCe)と呼ばれる新しい手法を提案する。
FaCeは、画像分類、セマンティックセグメンテーション、テキスト分類など、さまざまなタスクにおける最先端のパフォーマンスを提供する。
論文 参考訳(メタデータ) (2023-10-09T14:30:10Z) - Lattice-preserving $\mathcal{ALC}$ ontology embeddings with saturation [50.05281461410368]
OWL表現の埋め込みを生成するため,順序保存型埋め込み法を提案する。
本手法は,いくつかの知識ベース完了タスクにおいて,最先端の組込み手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-11T22:27:51Z) - Dual Box Embeddings for the Description Logic EL++ [16.70961576041243]
知識グラフ(KG)と同様に、知識グラフはしばしば不完全であり、それらの維持と構築は困難であることが証明された。
KGsと同様に、有望なアプローチは、潜在ベクトル空間への埋め込みを学習し、基礎となるDLのセマンティクスに固執することである。
そこで本研究では,概念と役割をボックスとして表現した,DL EL++用のBox$2$ELという新しいオントロジー埋め込み手法を提案する。
論文 参考訳(メタデータ) (2023-01-26T14:13:37Z) - MCDAL: Maximum Classifier Discrepancy for Active Learning [74.73133545019877]
近年の最先端のアクティブラーニング手法は, 主にGAN(Generative Adversarial Networks)をサンプル取得に活用している。
本稿では,MCDAL(Maximum Discrepancy for Active Learning)と呼ぶ新しいアクティブラーニングフレームワークを提案する。
特に,両者の差分を最大化することにより,より厳密な決定境界を学習する2つの補助的分類層を利用する。
論文 参考訳(メタデータ) (2021-07-23T06:57:08Z) - Deep Clustering by Semantic Contrastive Learning [67.28140787010447]
Semantic Contrastive Learning (SCL) と呼ばれる新しい変種を紹介します。
従来のコントラスト学習とディープクラスタリングの両方の特徴を探求する。
コントラスト学習と深層クラスタリングの強みを統一的なアプローチで増幅することができる。
論文 参考訳(メタデータ) (2021-03-03T20:20:48Z) - Semi-supervised Learning with the EM Algorithm: A Comparative Study
between Unstructured and Structured Prediction [8.944068453789752]
半教師付き学習はラベル付きサンプルとラベルなしサンプルの両方から予測モデルを学ぶことを目的としている。
EMに基づく半教師付き学習に関する既存の文献は、主に非構造化予測に焦点を当てている。
本稿では,EMに基づく半教師あり学習における非構造的手法と構造的手法を比較した。
論文 参考訳(メタデータ) (2020-08-28T02:20:05Z) - Lexical Semantic Recognition [15.944476972081345]
我々はニューラルCRFシークエンスタグを訓練し、アノテーションの様々な軸に沿ってその性能を評価する。
我々の研究は、語彙意味論の統合的かつ正確なモデリングのためのベースラインモデルと評価指標を確立する。
論文 参考訳(メタデータ) (2020-04-30T17:52:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。