論文の概要: Improving Knowledge Graph Embeddings through Contrastive Learning with Negative Statements
- arxiv url: http://arxiv.org/abs/2510.11868v1
- Date: Mon, 13 Oct 2025 19:21:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 21:19:14.956855
- Title: Improving Knowledge Graph Embeddings through Contrastive Learning with Negative Statements
- Title(参考訳): 否定文を用いたコントラスト学習による知識グラフ埋め込みの改善
- Authors: Rita T. Sousa, Heiko Paulheim,
- Abstract要約: 我々は,明示的に宣言された否定文を知識埋め込み学習プロセスに統合する新しいアプローチを導入する。
提案手法は汎用知識グラフとドメイン固有知識グラフの両方で評価され,リンク予測と3重分類タスクに着目した。
- 参考スコア(独自算出の注目度): 3.4591414173342643
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge graphs represent information as structured triples and serve as the backbone for a wide range of applications, including question answering, link prediction, and recommendation systems. A prominent line of research for exploring knowledge graphs involves graph embedding methods, where entities and relations are represented in low-dimensional vector spaces that capture underlying semantics and structure. However, most existing methods rely on assumptions such as the Closed World Assumption or Local Closed World Assumption, treating missing triples as false. This contrasts with the Open World Assumption underlying many real-world knowledge graphs. Furthermore, while explicitly stated negative statements can help distinguish between false and unknown triples, they are rarely included in knowledge graphs and are often overlooked during embedding training. In this work, we introduce a novel approach that integrates explicitly declared negative statements into the knowledge embedding learning process. Our approach employs a dual-model architecture, where two embedding models are trained in parallel, one on positive statements and the other on negative statements. During training, each model generates negative samples by corrupting positive samples and selecting the most likely candidates as scored by the other model. The proposed approach is evaluated on both general-purpose and domain-specific knowledge graphs, with a focus on link prediction and triple classification tasks. The extensive experiments demonstrate that our approach improves predictive performance over state-of-the-art embedding models, demonstrating the value of integrating meaningful negative knowledge into embedding learning.
- Abstract(参考訳): 知識グラフは、情報を構造化されたトリプルとして表現し、質問応答、リンク予測、レコメンデーションシステムを含む幅広いアプリケーションのバックボーンとして機能する。
知識グラフを探索するための顕著な研究の行はグラフの埋め込み法であり、実体と関係は下層のセマンティクスや構造を捉える低次元ベクトル空間で表現される。
しかし、既存のほとんどの手法はクローズド・ワールド・アセプション(英語版)やローカル・クローズド・ワールド・アセプション(英語版)のような仮定に依存しており、欠落した三重項を偽物として扱う。
これは、多くの現実世界の知識グラフの根底にあるOpen World Assumptionとは対照的である。
さらに、明確に述べられた否定的な文は、偽の三重項と未知の三重項を区別するのに役立つが、知識グラフに含められることは稀であり、しばしば埋め込みトレーニング中に見落とされる。
本研究では,明示的に宣言された否定文を学習プロセスに組み込む新しい手法を提案する。
提案手法では,2つの埋め込みモデルを並列に学習し,一方は肯定的文,もう一方は否定的文で学習する。
トレーニング中、各モデルは、正のサンプルを破損させ、他のモデルによって得られた最も可能性の高い候補を選択することで、負のサンプルを生成する。
提案手法は汎用知識グラフとドメイン固有知識グラフの両方で評価され,リンク予測と3重分類タスクに着目した。
実験により,本手法は最先端の埋め込みモデルよりも予測性能が向上し,意味のある負の知識を埋め込み学習に組み込むことの価値が示された。
関連論文リスト
- Knowledge Graph Enhanced Generative Multi-modal Models for Class-Incremental Learning [51.0864247376786]
学習過程を通じて進化する知識グラフを構築する知識グラフ強化多モードモデル(KG-GMM)を導入する。
テスト中,生成されたテキスト内の関係を解析し,特定のカテゴリを特定する知識グラフ拡張推論手法を提案する。
論文 参考訳(メタデータ) (2025-03-24T07:20:43Z) - Learning Latent Graph Structures and their Uncertainty [63.95971478893842]
点予測損失の最小化は、潜時関係情報の適切な学習を保証するものではないことを示す。
本稿では,この共同学習課題を解決するサンプリングベース手法を提案する。
論文 参考訳(メタデータ) (2024-05-30T10:49:22Z) - Pre-training and Diagnosing Knowledge Base Completion Models [58.07183284468881]
我々は,事実の集合から他の集合への知識伝達へのアプローチを,エンティティや関係マッチングを必要とせずに導入し,分析する。
主な貢献は、構造化されていないテキストから収集された事実の大規模事前学習を利用する方法である。
得られた事前学習モデルをよりよく理解するために,オープン知識ベースコンプリートのための事前学習モデルの解析のための新しいデータセットを導入する。
論文 参考訳(メタデータ) (2024-01-27T15:20:43Z) - Biomedical Knowledge Graph Embeddings with Negative Statements [1.7778609937758327]
否定的なステートメントを明示的に考慮することは、エンティティの要約のようなタスクのパフォーマンスを改善することが示されている。
本稿では,知識グラフ表現学習プロセスに否定文を組み込む新しい手法であるTrueWalksを提案する。
本稿では, 肯定文と否定文を区別するだけでなく, 否定の意味的意味を考慮に入れた歩行生成手法を提案する。
論文 参考訳(メタデータ) (2023-08-07T10:08:25Z) - Globally Interpretable Graph Learning via Distribution Matching [12.885580925389352]
我々は、まだ十分に研究されていない重要な質問に答えることを目指している。グラフ学習手順のグローバルな解釈を提供するには、どうすればよいのか?
我々は,この問題を,学習過程を支配する高レベルかつ人間の知能なパターンを蒸留することを目的とした,グローバルな解釈可能なグラフ学習として定式化する。
本稿では,解釈に基づいて学習したモデルの忠実度を評価するために,新しいモデル忠実度尺度を提案する。
論文 参考訳(メタデータ) (2023-06-18T00:50:36Z) - SMiLE: Schema-augmented Multi-level Contrastive Learning for Knowledge
Graph Link Prediction [28.87290783250351]
リンク予測は、知識グラフにおけるエンティティ間の欠落したリンクを推測するタスクである。
本稿では,知識グラフリンク予測を行うための新しいマルチレベルコントラスト学習フレームワーク(SMiLE)を提案する。
論文 参考訳(メタデータ) (2022-10-10T17:40:19Z) - Repurposing Knowledge Graph Embeddings for Triple Representation via
Weak Supervision [77.34726150561087]
現在の方法では、事前訓練されたモデルからの実体と述語埋め込みを使わずに、スクラッチから三重埋め込みを学習する。
本研究では,知識グラフからトリプルを自動抽出し,事前学習した埋め込みモデルからそれらのペアの類似性を推定する手法を開発した。
これらのペアの類似度スコアは、細い三重表現のためにシームズ様のニューラルネットワークに供給される。
論文 参考訳(メタデータ) (2022-08-22T14:07:08Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - Structure-Augmented Text Representation Learning for Efficient Knowledge
Graph Completion [53.31911669146451]
人為的な知識グラフは、様々な自然言語処理タスクに重要な支援情報を提供する。
これらのグラフは通常不完全であり、自動補完を促す。
グラフ埋め込みアプローチ(例えばTransE)は、グラフ要素を密度の高い埋め込みに表現することで構造化された知識を学ぶ。
テキストエンコーディングアプローチ(KG-BERTなど)は、グラフトリプルのテキストとトリプルレベルの文脈化表現を利用する。
論文 参考訳(メタデータ) (2020-04-30T13:50:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。