論文の概要: Knowledge Base Embeddings: Semantics and Theoretical Properties
- arxiv url: http://arxiv.org/abs/2408.04913v1
- Date: Fri, 9 Aug 2024 07:43:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-12 16:28:59.466764
- Title: Knowledge Base Embeddings: Semantics and Theoretical Properties
- Title(参考訳): 知識ベース埋め込み:意味論と理論的特性
- Authors: Camille Bourgaux, Ricardo Guimarães, Raoul Koudijs, Victor Lacerda, Ana Ozaki,
- Abstract要約: 本稿では,ベクトル空間に記述論理に知識ベースを組み込む手法を提案する。
我々は、文献から引き出すいくつかの関連する理論的性質を特定し、時には一般化または統一する。
- 参考スコア(独自算出の注目度): 8.927359047811354
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Research on knowledge graph embeddings has recently evolved into knowledge base embeddings, where the goal is not only to map facts into vector spaces but also constrain the models so that they take into account the relevant conceptual knowledge available. This paper examines recent methods that have been proposed to embed knowledge bases in description logic into vector spaces through the lens of their geometric-based semantics. We identify several relevant theoretical properties, which we draw from the literature and sometimes generalize or unify. We then investigate how concrete embedding methods fit in this theoretical framework.
- Abstract(参考訳): 知識グラフの埋め込みの研究は、近年、知識ベースの埋め込みへと発展し、そこでは、事実をベクトル空間にマッピングするだけでなく、モデルに制約を加えて、利用可能な関連する概念的知識を考慮に入れている。
本稿では,その幾何学的意味論のレンズを用いて,記述論理に知識ベースを組み込む手法を提案する。
我々は、文献から引き出すいくつかの関連する理論的性質を特定し、時には一般化または統一する。
次に, この理論的枠組みに具体的埋没法がどのように適合するかを考察する。
関連論文リスト
- Detecting text level intellectual influence with knowledge graph embeddings [0.0]
オープンソースジャーナル記事のコーパスを収集し,Gemini LLMを用いて知識グラフ表現を生成する。
提案手法は,前述した手法とグラフニューラルネットワークを用いた新しい埋め込みモデルを用いて,サンプル対の論文間の引用の存在を予測しようとするものである。
論文 参考訳(メタデータ) (2024-10-31T15:21:27Z) - Category-Theoretical and Topos-Theoretical Frameworks in Machine Learning: A Survey [4.686566164138397]
カテゴリー理論に基づく機械学習を4つの主流視点から概観する。
最初の3つのトピックについて、主に過去5年間の調査をレビューし、以前の調査を更新し、拡張しました。
第4のトピックは、高次圏論、特にトポス理論を論じるもので、この論文で初めて調査される。
論文 参考訳(メタデータ) (2024-08-26T04:39:33Z) - Learning Discrete Concepts in Latent Hierarchical Models [73.01229236386148]
自然の高次元データから学習する概念は、ヒューマンアライメントと解釈可能な機械学習モデルの構築の可能性を秘めている。
我々は概念を階層的因果モデルを通して関連付けられた離散潜在因果変数として定式化する。
我々は、理論的な主張を合成データ実験で裏付ける。
論文 参考訳(メタデータ) (2024-06-01T18:01:03Z) - From axioms over graphs to vectors, and back again: evaluating the
properties of graph-based ontology embeddings [78.217418197549]
埋め込みを生成するアプローチの1つは、名前付きエンティティと論理公理構造のためのノードとエッジのセットを導入することである。
グラフに埋め込む方法(グラフ射影)は、それらが利用する公理の種類と異なる性質を持つ。
論文 参考訳(メタデータ) (2023-03-29T08:21:49Z) - The language of pre-topology in knowledge spaces [1.1236838268731801]
プレトポロジーは知識構造理論における知識空間としても知られている。
本稿では,知識空間論における事前位相分離公理の言語について論じる。
有限知識空間に対する原子プライマリ項目の集合を求めるアルゴリズムを与える。
論文 参考訳(メタデータ) (2021-11-29T08:49:13Z) - Fact-driven Logical Reasoning for Machine Reading Comprehension [82.58857437343974]
私たちは、常識と一時的な知識のヒントの両方を階層的にカバーする動機があります。
具体的には,文の背骨成分を抽出し,知識単位の一般的な定式化を提案する。
次に、事実単位の上にスーパーグラフを構築し、文レベル(事実群間の関係)と実体レベルの相互作用の利点を享受する。
論文 参考訳(メタデータ) (2021-05-21T13:11:13Z) - On the Complexity of Learning Description Logic Ontologies [14.650545418986058]
オントロジーはドメイン知識、特に生命科学に関連する領域における知識を表現する一般的な方法である。
学習理論から正確な学習モデルとおそらく正しい学習モデルの形式的な仕様を提供します。
論文 参考訳(メタデータ) (2021-03-25T09:18:12Z) - Formalising Concepts as Grounded Abstractions [68.24080871981869]
このレポートは、表現学習が生データから概念を誘導する方法を示しています。
このレポートの主な技術的目標は、表現学習のテクニックが概念空間の格子理論的定式化とどのように結婚できるかを示すことである。
論文 参考訳(メタデータ) (2021-01-13T15:22:01Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z) - Computational linguistic assessment of textbook and online learning
media by means of threshold concepts in business education [59.003956312175795]
言語学的観点では、しきい値の概念は特別な語彙の例であり、特定の言語的特徴を示す。
ビジネス教育における63のしきい値の概念のプロファイルは、教科書、新聞、ウィキペディアで調査されている。
3種類のリソースは、しきい値の概念のプロファイルから区別できる。
論文 参考訳(メタデータ) (2020-08-05T12:56:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。