論文の概要: Contextual Semantic Embeddings for Ontology Subsumption Prediction
- arxiv url: http://arxiv.org/abs/2202.09791v1
- Date: Sun, 20 Feb 2022 11:14:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-22 15:56:15.763186
- Title: Contextual Semantic Embeddings for Ontology Subsumption Prediction
- Title(参考訳): オントロジー仮定予測のための文脈意味埋め込み
- Authors: Jiaoyan Chen and Yuan He and Ernesto Jimenez-Ruiz and Hang Dong and
Ian Horrocks
- Abstract要約: 本稿では,BERTSubsというクラス仮定予測手法を提案する。
トレーニング済みの言語モデルBERTを使用して、クラスラベルの埋め込みと、周辺のクラスのコンテキストを計算します。
- 参考スコア(独自算出の注目度): 37.00562636991463
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automating ontology curation is a crucial task in knowledge engineering.
Prediction by machine learning techniques such as semantic embedding is a
promising direction, but the relevant research is still preliminary. In this
paper, we present a class subsumption prediction method named BERTSubs, which
uses the pre-trained language model BERT to compute contextual embeddings of
the class labels and customized input templates to incorporate contexts of
surrounding classes. The evaluation on two large-scale real-world ontologies
has shown its better performance than the state-of-the-art.
- Abstract(参考訳): オントロジーキュレーションの自動化は知識工学における重要な課題である。
セマンティック埋め込みのような機械学習技術による予測は有望な方向であるが、関連する研究はまだ予備的である。
本稿では,事前学習された言語モデル BERT を用いて,クラスラベルのコンテキスト埋め込みを計算し,周辺クラスのコンテキストを組み込んだ入力テンプレートをカスタマイズした BERTSubs というクラス仮定予測手法を提案する。
2つの大規模実世界のオントロジに対する評価は、最先端技術よりも優れた性能を示している。
関連論文リスト
- SciPrompt: Knowledge-augmented Prompting for Fine-grained Categorization of Scientific Topics [2.3742710594744105]
SciPromptは,低リソーステキスト分類タスクに対して,科学的トピック関連用語を自動的に検索するフレームワークである。
本手法は, ほとんど, ゼロショット設定下での科学的テキスト分類作業において, 最先端, 即時的な微調整法より優れる。
論文 参考訳(メタデータ) (2024-10-02T18:45:04Z) - Ontological Relations from Word Embeddings [2.384873896423002]
BERTのような一般的なニューラルモデルから得られる単語埋め込みの類似性は、それらの単語の意味の意味的類似性の形で効果的に近似することが確実に示されている。
これらの埋め込みの上に単純なフィードフォワードアーキテクチャを組み込むことで、入力データに応じて様々な一般化能力を持つ有望な精度が得られることを示す。
論文 参考訳(メタデータ) (2024-08-01T10:31:32Z) - Ontology Embedding: A Survey of Methods, Applications and Resources [54.3453925775069]
オントロジはドメイン知識とメタデータを表現するために広く使われている。
1つの簡単な解決策は、統計分析と機械学習を統合することである。
埋め込みに関する多くの論文が出版されているが、体系的なレビューの欠如により、研究者はこの分野の包括的な理解を妨げている。
論文 参考訳(メタデータ) (2024-06-16T14:49:19Z) - Lattice-preserving $\mathcal{ALC}$ ontology embeddings with saturation [50.05281461410368]
OWL表現の埋め込みを生成するため,順序保存型埋め込み法を提案する。
本手法は,いくつかの知識ベース完了タスクにおいて,最先端の組込み手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-11T22:27:51Z) - Schema-aware Reference as Prompt Improves Data-Efficient Knowledge Graph
Construction [57.854498238624366]
本稿では,データ効率のよい知識グラフ構築のためのRAP(Schema-Aware Reference As Prompt)の検索手法を提案する。
RAPは、人間の注釈付きおよび弱教師付きデータから受け継いだスキーマと知識を、各サンプルのプロンプトとして動的に活用することができる。
論文 参考訳(メタデータ) (2022-10-19T16:40:28Z) - Knowledge-Aware Bayesian Deep Topic Model [50.58975785318575]
本稿では,事前知識を階層型トピックモデリングに組み込むベイズ生成モデルを提案する。
提案モデルでは,事前知識を効率的に統合し,階層的なトピック発見と文書表現の両面を改善する。
論文 参考訳(メタデータ) (2022-09-20T09:16:05Z) - BERTMap: A BERT-based Ontology Alignment System [24.684912604644865]
BERTMapは、教師なし設定と半教師なし設定の両方をサポートすることができる。
BERTMapは、主要なシステムであるLogMapやAMLよりもよく機能する。
論文 参考訳(メタデータ) (2021-12-05T21:08:44Z) - OWL2Vec*: Embedding of OWL Ontologies [27.169755467590836]
OWL2Vec* という名前のランダムウォークと単語埋め込みに基づく埋め込み手法を提案する。
OWL2Vec*は、グラフ構造、語彙情報、論理コンストラクタを考慮してOWLのセマンティクスを符号化する。
論文 参考訳(メタデータ) (2020-09-30T13:07:50Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z) - Distributional semantic modeling: a revised technique to train term/word
vector space models applying the ontology-related approach [36.248702416150124]
ニューラルネットワークを用いた分散項表現(あるいは項埋め込み)学習による分布意味モデリングのための新しい手法を設計する。
Vec2graphは、動的かつインタラクティブなグラフとして単語埋め込み(私たちの場合の長期埋め込み)を視覚化するためのPythonライブラリである。
論文 参考訳(メタデータ) (2020-03-06T18:27:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。