論文の概要: Knowledge Graph Completion with Pre-trained Multimodal Transformer and
Twins Negative Sampling
- arxiv url: http://arxiv.org/abs/2209.07084v1
- Date: Thu, 15 Sep 2022 06:50:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-16 12:01:27.091134
- Title: Knowledge Graph Completion with Pre-trained Multimodal Transformer and
Twins Negative Sampling
- Title(参考訳): 事前学習型マルチモーダルトランスとツインズ負サンプリングによる知識グラフ補完
- Authors: Yichi Zhang, Wen Zhang
- Abstract要約: 本稿では,VBKGC(VisualBERT-enhanced Knowledge Graph Completion Model)を提案する。
VBKGCは、エンティティの深く融合したマルチモーダル情報をキャプチャし、それらをKGCモデルに統合することができる。
リンク予測タスクにおいて,VBKGCの優れた性能を示すため,広範囲な実験を行った。
- 参考スコア(独自算出の注目度): 13.016173217017597
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge graphs (KGs) that modelings the world knowledge as structural
triples are inevitably incomplete. Such problems still exist for multimodal
knowledge graphs (MMKGs). Thus, knowledge graph completion (KGC) is of great
importance to predict the missing triples in the existing KGs. As for the
existing KGC methods, embedding-based methods rely on manual design to leverage
multimodal information while finetune-based approaches are not superior to
embedding-based methods in link prediction. To address these problems, we
propose a VisualBERT-enhanced Knowledge Graph Completion model (VBKGC for
short). VBKGC could capture deeply fused multimodal information for entities
and integrate them into the KGC model. Besides, we achieve the co-design of the
KGC model and negative sampling by designing a new negative sampling strategy
called twins negative sampling. Twins negative sampling is suitable for
multimodal scenarios and could align different embeddings for entities. We
conduct extensive experiments to show the outstanding performance of VBKGC on
the link prediction task and make further exploration of VBKGC.
- Abstract(参考訳): 世界知識を構造的三重項としてモデル化する知識グラフ(KG)は必然的に不完全である。
このような問題は、MMKG(Multimodal knowledge graph)にも残っている。
このように、知識グラフ補完(KGC)は、既存のKGの欠落三重項を予測する上で非常に重要である。
既存のKGC法では、埋め込みベースの手法はマルチモーダル情報を活用するために手動設計に依存しているが、ファインチューンベースの手法はリンク予測における埋め込み方式よりも優れている。
これらの問題に対処するために、VisualBERTによる知識グラフ補完モデル(略してVBKGC)を提案する。
VBKGCは、エンティティの深く融合したマルチモーダル情報をキャプチャし、それらをKGCモデルに統合することができる。
さらに、ツインズ負サンプリングと呼ばれる新しい負サンプリング戦略を設計することで、KGCモデルの共設計と負サンプリングを実現する。
双対負サンプリングはマルチモーダルシナリオに適しており、エンティティに対する異なる埋め込みを調整できる。
本稿では,リンク予測タスクにおけるVBKGCの優れた性能を示すための広範な実験を行い,さらにVBKGCの探索を行う。
関連論文リスト
- Diffusion-based Hierarchical Negative Sampling for Multimodal Knowledge Graph Completion [6.24078177211832]
マルチモーダル知識グラフ補完(MMKGC)は、マルチモーダル知識グラフにおける不足知識の重要な問題に対処することを目的としている。
従来のアプローチでは、多モーダル情報の活用を無視して、多様で高品質な負の三重項を生成する。
本稿では,MMKGCタスクに適した拡散型階層的負サンプリング手法を提案する。
論文 参考訳(メタデータ) (2025-01-26T04:20:34Z) - Distill-SynthKG: Distilling Knowledge Graph Synthesis Workflow for Improved Coverage and Efficiency [59.6772484292295]
大規模言語モデル(LLM)によって生成される知識グラフ(KG)は、検索・拡張生成(RAG)アプリケーションにとってますます価値が増している。
既存のKG抽出法は、大規模コーパスの処理に非効率なプロンプトベースのアプローチに依存している。
LLMに基づく多段階文書レベルのKGワークフローであるSynthKGを提案する。
我々はまた、RAGのための新しいグラフベースの検索フレームワークを設計する。
論文 参考訳(メタデータ) (2024-10-22T00:47:54Z) - Subgraph-Aware Training of Language Models for Knowledge Graph Completion Using Structure-Aware Contrastive Learning [4.741342276627672]
微調整事前学習言語モデル(PLM)は、最近知識グラフ補完(KGC)を改善する可能性を示している。
そこで本研究では,KGC(SATKGC)のためのサブグラフ認識学習フレームワークを提案する。 (i)サブグラフ認識のミニバッチ化により,ハードネガティブサンプリングの促進とトレーニング中のエンティティ発生頻度の不均衡を軽減すること,および (ii)知識グラフの構造特性の観点から,よりハードなインバッチ負三重項とハードポジティブ三重項にフォーカスする新たなコントラスト学習を提案する。
論文 参考訳(メタデータ) (2024-07-17T16:25:37Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - Few-Shot Inductive Learning on Temporal Knowledge Graphs using
Concept-Aware Information [31.10140298420744]
時間的知識グラフ(TKG)のための数発のアウト・オブ・グラフ(OOG)リンク予測タスクを提案する。
メタラーニングフレームワークを用いて、未知のエンティティに関するリンクから、欠落したエンティティを予測する。
我々のモデルは3つのデータセットすべてにおいて優れた性能を達成する。
論文 参考訳(メタデータ) (2022-11-15T14:23:07Z) - Unified Multi-View Orthonormal Non-Negative Graph Based Clustering
Framework [74.25493157757943]
我々は,非負の特徴特性を活用し,多視点情報を統合された共同学習フレームワークに組み込む,新しいクラスタリングモデルを定式化する。
また、深層機能に基づいたクラスタリングデータに対するマルチモデル非負グラフベースのアプローチを初めて検討する。
論文 参考訳(メタデータ) (2022-11-03T08:18:27Z) - KGxBoard: Explainable and Interactive Leaderboard for Evaluation of
Knowledge Graph Completion Models [76.01814380927507]
KGxBoardは、データの意味のあるサブセットを詳細に評価するためのインタラクティブなフレームワークである。
実験では,KGxBoardを用いることで,標準平均シングルスコアメトリクスでは検出が不可能であったことを強調した。
論文 参考訳(メタデータ) (2022-08-23T15:11:45Z) - GreenKGC: A Lightweight Knowledge Graph Completion Method [32.528770408502396]
GreenKGCは、知識グラフ内のエンティティ間の欠落した関係を見つけることを目的としている。
表現学習、特徴抽出、決定学習の3つのモジュールで構成されている。
低次元では、GreenKGCはほとんどのデータセットでSOTAメソッドより優れている。
論文 参考訳(メタデータ) (2022-08-19T03:33:45Z) - KGBoost: A Classification-based Knowledge Base Completion Method with
Negative Sampling [29.14178162494542]
KGBoostは、リンク予測の欠如のために強力な分類器を訓練する新しい方法である。
我々は、複数のベンチマークデータセットで実験を行い、KGBoostがほとんどのデータセットで最先端のメソッドより優れていることを示す。
エンドツーエンドの最適化によって訓練されたモデルと比較して、KGBoostは、より小さなモデルサイズを実現するために、低次元設定下でうまく機能する。
論文 参考訳(メタデータ) (2021-12-17T06:19:37Z) - Cross-Modal Collaborative Representation Learning and a Large-Scale RGBT
Benchmark for Crowd Counting [109.32927895352685]
RGBT Crowd Counting (RGBT-CC) ベンチマークは2,030対のRGB熱画像と138,389人の注釈付き画像を含む。
マルチモーダルな群集カウントを容易にするために,クロスモーダルな協調表現学習フレームワークを提案する。
RGBT-CCベンチマークで行った実験は、RGBTの群集カウントにおけるフレームワークの有効性を示した。
論文 参考訳(メタデータ) (2020-12-08T16:18:29Z) - KACC: A Multi-task Benchmark for Knowledge Abstraction, Concretization
and Completion [99.47414073164656]
包括的知識グラフ(KG)は、インスタンスレベルのエンティティグラフとオントロジーレベルの概念グラフを含む。
2ビューのKGは、知識の抽象化、包括化、完成に関する人間の能力を「シミュレーション」するためのモデルのためのテストベッドを提供する。
我々は,データセットのスケール,タスクカバレッジ,難易度の観点から,既存のベンチマークを改善した統一KGベンチマークを提案する。
論文 参考訳(メタデータ) (2020-04-28T16:21:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。