論文の概要: Return of the Schema: Building Complete Datasets for Machine Learning and Reasoning on Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2602.14795v1
- Date: Mon, 16 Feb 2026 14:42:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.473192
- Title: Return of the Schema: Building Complete Datasets for Machine Learning and Reasoning on Knowledge Graphs
- Title(参考訳): スキーマの返却: 機械学習と知識グラフによる推論のための完全なデータセットの構築
- Authors: Ivan Diliso, Roberto Barile, Claudia d'Amato, Nicola Fanizzi,
- Abstract要約: スキーマと地上事実の両方を含むデータセットを抽出するためのワークフローを提供する最初のリソースを提示する。
結果として得られたデータセットのキュレートされたスイートは、マシンラーニングと推論サービスの準備が整っている。
標準機械学習ライブラリに典型的なテンソル表現でデータセットをロードするユーティリティを提供する。
- 参考スコア(独自算出の注目度): 0.017283310584905027
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Datasets for the experimental evaluation of knowledge graph refinement algorithms typically contain only ground facts, retaining very limited schema level knowledge even when such information is available in the source knowledge graphs. This limits the evaluation of methods that rely on rich ontological constraints, reasoning or neurosymbolic techniques and ultimately prevents assessing their performance in large-scale, real-world knowledge graphs. In this paper, we present \resource{} the first resource that provides a workflow for extracting datasets including both schema and ground facts, ready for machine learning and reasoning services, along with the resulting curated suite of datasets. The workflow also handles inconsistencies detected when keeping both schema and facts and also leverage reasoning for entailing implicit knowledge. The suite includes newly extracted datasets from KGs with expressive schemas while simultaneously enriching existing datasets with schema information. Each dataset is serialized in OWL making it ready for reasoning services. Moreover, we provide utilities for loading datasets in tensor representations typical of standard machine learning libraries.
- Abstract(参考訳): 知識グラフ精算アルゴリズムの実験的な評価のためのデータセットは、典型的には基礎的な事実のみを含み、そのような情報が情報源の知識グラフで利用できる場合でも、非常に限られたスキーマレベルの知識を保持する。
これにより、リッチな存在論的制約、推論、あるいはニューロシンボリックなテクニックに依存した手法の評価が制限され、最終的に大規模な実世界の知識グラフにおけるそれらの性能の評価が妨げられる。
本稿では,スキーマとグラウンドの事実を含むデータセットを抽出するワークフローを提供する最初のリソースである \resource{} について述べる。
ワークフローはまた、スキーマと事実の両方を保持するときに検出された矛盾を処理し、暗黙の知識を含む推論を活用する。
このスイートには、表現力のあるスキーマを備えたKGから新たに抽出されたデータセットが含まれ、同時に既存のデータセットをスキーマ情報で強化する。
各データセットはOWLでシリアライズされ、推論サービスの準備が整う。
さらに、標準機械学習ライブラリに典型的なテンソル表現でデータセットをロードするためのユーティリティを提供する。
関連論文リスト
- Towards a Gateway for Knowledge Graph Schemas Collection, Analysis, and
Embedding [10.19939896927137]
本稿は、Live Semantic Webイニシアチブ、すなわち、多くの既存の知識グラフによって収集された関係データの金鉱の活用を主目的とするゲートウェイの最初のバージョンについて述べる。
論文 参考訳(メタデータ) (2023-11-21T09:22:02Z) - Learning Representations without Compositional Assumptions [79.12273403390311]
本稿では,特徴集合をグラフノードとして表現し,それらの関係を学習可能なエッジとして表現することで,特徴集合の依存関係を学習するデータ駆動型アプローチを提案する。
また,複数のビューから情報を動的に集約するために,より小さな潜在グラフを学習する新しい階層グラフオートエンコーダLEGATOを導入する。
論文 参考訳(メタデータ) (2023-05-31T10:36:10Z) - Schema-aware Reference as Prompt Improves Data-Efficient Knowledge Graph
Construction [57.854498238624366]
本稿では,データ効率のよい知識グラフ構築のためのRAP(Schema-Aware Reference As Prompt)の検索手法を提案する。
RAPは、人間の注釈付きおよび弱教師付きデータから受け継いだスキーマと知識を、各サンプルのプロンプトとして動的に活用することができる。
論文 参考訳(メタデータ) (2022-10-19T16:40:28Z) - From ImageNet to Image Classification: Contextualizing Progress on
Benchmarks [99.19183528305598]
ImageNet作成プロセスにおける特定の設計選択が、結果のデータセットの忠実性に与える影響について検討する。
私たちの分析では、ノイズの多いデータ収集パイプラインが、結果のベンチマークと、それがプロキシとして機能する実世界のタスクとの間に、体系的なミスアライメントをもたらす可能性があることを指摘しています。
論文 参考訳(メタデータ) (2020-05-22T17:39:16Z) - ENT-DESC: Entity Description Generation by Exploring Knowledge Graph [53.03778194567752]
実際には、出力記述が最も重要な知識のみをカバーするため、入力知識は十分以上である可能性がある。
我々は、KG-to-textにおけるこのような実践的なシナリオの研究を容易にするために、大規模で挑戦的なデータセットを導入する。
本稿では,元のグラフ情報をより包括的に表現できるマルチグラフ構造を提案する。
論文 参考訳(メタデータ) (2020-04-30T14:16:19Z) - Exploiting Structured Knowledge in Text via Graph-Guided Representation
Learning [73.0598186896953]
本稿では、知識グラフからのガイダンスを用いて、生テキスト上で学習する2つの自己教師型タスクを提案する。
エンティティレベルのマスキング言語モデルに基づいて、最初のコントリビューションはエンティティマスキングスキームです。
既存のパラダイムとは対照的に,本手法では事前学習時にのみ,知識グラフを暗黙的に使用する。
論文 参考訳(メタデータ) (2020-04-29T14:22:42Z) - How Useful is Self-Supervised Pretraining for Visual Tasks? [133.1984299177874]
我々は、総合的な合成データセットと下流タスクにまたがる様々な自己教師付きアルゴリズムを評価する。
我々の実験は、利用可能なラベルの数が増えるにつれて、セルフスーパービジョンの有用性がどう変化するかについての洞察を提供する。
論文 参考訳(メタデータ) (2020-03-31T16:03:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。