論文の概要: Ontological Relations from Word Embeddings
- arxiv url: http://arxiv.org/abs/2408.00444v1
- Date: Thu, 1 Aug 2024 10:31:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-04 20:56:07.842795
- Title: Ontological Relations from Word Embeddings
- Title(参考訳): 単語埋め込みからのオントロジー的関係
- Authors: Mathieu d'Aquin, Emmanuel Nauer,
- Abstract要約: BERTのような一般的なニューラルモデルから得られる単語埋め込みの類似性は、それらの単語の意味の意味的類似性の形で効果的に近似することが確実に示されている。
これらの埋め込みの上に単純なフィードフォワードアーキテクチャを組み込むことで、入力データに応じて様々な一般化能力を持つ有望な精度が得られることを示す。
- 参考スコア(独自算出の注目度): 2.384873896423002
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It has been reliably shown that the similarity of word embeddings obtained from popular neural models such as BERT approximates effectively a form of semantic similarity of the meaning of those words. It is therefore natural to wonder if those embeddings contain enough information to be able to connect those meanings through ontological relationships such as the one of subsumption. If so, large knowledge models could be built that are capable of semantically relating terms based on the information encapsulated in word embeddings produced by pre-trained models, with implications not only for ontologies (ontology matching, ontology evolution, etc.) but also on the ability to integrate ontological knowledge in neural models. In this paper, we test how embeddings produced by several pre-trained models can be used to predict relations existing between classes and properties of popular upper-level and general ontologies. We show that even a simple feed-forward architecture on top of those embeddings can achieve promising accuracies, with varying generalisation abilities depending on the input data. To achieve that, we produce a dataset that can be used to further enhance those models, opening new possibilities for applications integrating knowledge from web ontologies.
- Abstract(参考訳): BERTのような一般的なニューラルモデルから得られる単語埋め込みの類似性は、それらの単語の意味の意味的類似性の形で効果的に近似することが確実に示されている。
したがって、これらの埋め込みには、仮定のような存在論的関係を通じてそれらの意味を結び付けるのに十分な情報が含まれているのかどうか疑問に思うのは自然である。
もしそうなら、オントロジー(オントロジーマッチング、オントロジー進化など)だけでなく、ニューラルモデルに存在論的知識を統合する能力にも影響する、事前訓練されたモデルによって生成された単語埋め込みにカプセル化された情報に基づいて、用語を意味的に関連付けることのできる大きな知識モデルを構築することができる。
本稿では,いくつかの事前学習モデルによって生成された埋め込みを用いて,一般的な上層および一般オントロジーのクラスと特性の関係を予測できることを示す。
これらの埋め込みの上に単純なフィードフォワードアーキテクチャさえも、入力データに応じて様々な一般化能力を持つ有望な精度を実現することができることを示す。
これを実現するために、これらのモデルをさらに強化するために使用可能なデータセットを作成し、Webオントロジーから知識を統合するアプリケーションに新たな可能性を開く。
関連論文リスト
- Pre-training and Diagnosing Knowledge Base Completion Models [58.07183284468881]
我々は,事実の集合から他の集合への知識伝達へのアプローチを,エンティティや関係マッチングを必要とせずに導入し,分析する。
主な貢献は、構造化されていないテキストから収集された事実の大規模事前学習を利用する方法である。
得られた事前学習モデルをよりよく理解するために,オープン知識ベースコンプリートのための事前学習モデルの解析のための新しいデータセットを導入する。
論文 参考訳(メタデータ) (2024-01-27T15:20:43Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - Schema-aware Reference as Prompt Improves Data-Efficient Knowledge Graph
Construction [57.854498238624366]
本稿では,データ効率のよい知識グラフ構築のためのRAP(Schema-Aware Reference As Prompt)の検索手法を提案する。
RAPは、人間の注釈付きおよび弱教師付きデータから受け継いだスキーマと知識を、各サンプルのプロンプトとして動的に活用することができる。
論文 参考訳(メタデータ) (2022-10-19T16:40:28Z) - Towards a Predictive Processing Implementation of the Common Model of
Cognition [79.63867412771461]
本稿では,ニューラル生成符号化とホログラフィック連想記憶に基づく認知モデルの実装について述べる。
提案システムは,多様なタスクから継続的に学習し,大規模に人的パフォーマンスをモデル化するエージェントを開発するための基盤となる。
論文 参考訳(メタデータ) (2021-05-15T22:55:23Z) - Predicting Gene-Disease Associations with Knowledge Graph Embeddings
over Multiple Ontologies [0.0]
オントロジーに基づく遺伝子障害関連性を予測するアプローチには、知識グラフの埋め込みが含まれる。
知識グラフ埋め込みが遺伝子・酵素関連などの複雑なタスクに与える影響について検討する。
論文 参考訳(メタデータ) (2021-05-11T11:20:38Z) - Prototypical Representation Learning for Relation Extraction [56.501332067073065]
本論文では, 遠隔ラベルデータから予測可能, 解釈可能, 堅牢な関係表現を学習することを目的とする。
文脈情報から各関係のプロトタイプを学習し,関係の本質的意味を最善に探求する。
いくつかの関係学習タスクの結果,本モデルが従来の関係モデルを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-03-22T08:11:43Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z) - Extracting Semantic Concepts and Relations from Scientific Publications
by Using Deep Learning [0.0]
本研究の目的は,学術出版物から意味概念と関係を自動的に抽出する提案を行うことである。
本稿では,意味関係の新たなタイプを提案するとともに,意味関係抽出に深層学習(DL)モデルを用いる点を指摘する。
論文 参考訳(メタデータ) (2020-09-01T10:19:18Z) - A Neural Generative Model for Joint Learning Topics and Topic-Specific
Word Embeddings [42.87769996249732]
共同学習トピックとトピック固有の単語埋め込みのための局所的・グローバル的文脈を探索する新しい生成モデルを提案する。
訓練されたモデルは、単語を話題に依存した埋め込みにマッピングする。
論文 参考訳(メタデータ) (2020-08-11T13:54:11Z) - Distributional semantic modeling: a revised technique to train term/word
vector space models applying the ontology-related approach [36.248702416150124]
ニューラルネットワークを用いた分散項表現(あるいは項埋め込み)学習による分布意味モデリングのための新しい手法を設計する。
Vec2graphは、動的かつインタラクティブなグラフとして単語埋め込み(私たちの場合の長期埋め込み)を視覚化するためのPythonライブラリである。
論文 参考訳(メタデータ) (2020-03-06T18:27:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。