論文の概要: Multi-view Contrastive Learning for Entity Typing over Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2310.12008v1
- Date: Wed, 18 Oct 2023 14:41:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-19 16:16:55.780600
- Title: Multi-view Contrastive Learning for Entity Typing over Knowledge Graphs
- Title(参考訳): 知識グラフを用いたエンティティタイピングのためのマルチビューコントラスト学習
- Authors: Zhiwei Hu, V\'ictor Guti\'errez-Basulto, Zhiliang Xiang, Ru Li, Jeff
Z. Pan
- Abstract要約: 知識グラフ・エンティティ・タイピング(MCLET)のためのマルチビューコントラスト学習法を提案する。
MCLETはクラスタが提供する粗い知識をエンティティや型埋め込みに効果的にエンコードする。
- 参考スコア(独自算出の注目度): 25.399684403558553
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge graph entity typing (KGET) aims at inferring plausible types of
entities in knowledge graphs. Existing approaches to KGET focus on how to
better encode the knowledge provided by the neighbors and types of an entity
into its representation. However, they ignore the semantic knowledge provided
by the way in which types can be clustered together. In this paper, we propose
a novel method called Multi-view Contrastive Learning for knowledge graph
Entity Typing (MCLET), which effectively encodes the coarse-grained knowledge
provided by clusters into entity and type embeddings. MCLET is composed of
three modules: i) Multi-view Generation and Encoder module, which encodes
structured information from entity-type, entity-cluster and cluster-type views;
ii) Cross-view Contrastive Learning module, which encourages different views to
collaboratively improve view-specific representations of entities and types;
iii) Entity Typing Prediction module, which integrates multi-head attention and
a Mixture-of-Experts strategy to infer missing entity types. Extensive
experiments show the strong performance of MCLET compared to the
state-of-the-art
- Abstract(参考訳): 知識グラフエンティティタイピング(KGET)は、知識グラフにおいて、妥当なタイプのエンティティを推測することを目的としている。
KGETの既存のアプローチは、エンティティの隣人やタイプが提供する知識をその表現にどのようにエンコードするかに焦点を当てています。
しかしながら、型をクラスタ化する方法によって提供される意味的知識は無視される。
本稿では,クラスタから提供される粗い知識をエンティティや型埋め込みに効果的にエンコードする,知識グラフエンティティ型付けのためのマルチビューコントラスト学習(mclet)という新しい手法を提案する。
MCLETは3つのモジュールから構成されています。
一 エンティティタイプ、エンティティクラスタ、クラスタタイプのビューから構造化情報をエンコードするマルチビュー生成及びエンコーダモジュール
二 エンティティ及びタイプのビュー固有の表現を共同的に改善するために、異なるビューを奨励するクロスビューコントラスト学習モジュール
iii) エンティティタイプ予測モジュールは、欠落しているエンティティタイプを推測するために、多頭注意と専門家の混合戦略を統合する。
大規模実験によるmcletの高性能化と最新技術との比較
関連論文リスト
- COTET: Cross-view Optimal Transport for Knowledge Graph Entity Typing [27.28214706269035]
知識グラフエンティティタイピングは、知識グラフに欠けているエンティティタイプのインスタンスを推論することを目的としている。
これまでの研究は主に、エンティティに関連するコンテキスト情報を活用することに焦点を当ててきた。
本稿では,知識グラフのエンティティ型付けのためのクロスビュー最適トランスポートを提案する。
論文 参考訳(メタデータ) (2024-05-22T12:53:12Z) - EIGEN: Expert-Informed Joint Learning Aggregation for High-Fidelity
Information Extraction from Document Images [27.36816896426097]
レイアウトフォーマットの多様性が高いため,文書画像からの情報抽出は困難である。
本稿では,ルールベースの手法とデータプログラミングを用いたディープラーニングモデルを組み合わせた新しい手法であるEIGENを提案する。
我々のEIGENフレームワークは、ラベル付きデータインスタンスがほとんどない状態で、最先端のディープモデルの性能を大幅に向上させることができることを実証的に示しています。
論文 参考訳(メタデータ) (2023-11-23T13:20:42Z) - Knowledge-Aware Prompt Tuning for Generalizable Vision-Language Models [64.24227572048075]
本稿では,視覚言語モデルのためのKnowledge-Aware Prompt Tuning(KAPT)フレームワークを提案する。
我々のアプローチは、人間の知性からインスピレーションを得ており、外部知識は、通常、オブジェクトの新たなカテゴリを認識するために組み込まれています。
論文 参考訳(メタデータ) (2023-08-22T04:24:45Z) - Towards Better Entity Linking with Multi-View Enhanced Distillation [30.554387215553238]
本稿では,エンティティリンクのためのマルチビュー拡張蒸留(MVD)フレームワークを提案する。
MVDは、エンティティ内の複数の細粒度および参照関連部分の知識を、クロスエンコーダからデュアルエンコーダへ効果的に転送することができる。
実験により,提案手法はいくつかのエンティティリンクベンチマークにおいて最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-05-27T05:15:28Z) - Multi-modal Contrastive Representation Learning for Entity Alignment [57.92705405276161]
マルチモーダルなエンティティアライメントは、2つの異なるマルチモーダルな知識グラフ間で等価なエンティティを識別することを目的としている。
マルチモーダルコントラスト学習に基づくエンティティアライメントモデルであるMCLEAを提案する。
特に、MCLEAはまず複数のモダリティから複数の個別表現を学習し、その後、モダリティ内およびモダリティ間相互作用を共同でモデル化するコントラスト学習を行う。
論文 参考訳(メタデータ) (2022-09-02T08:59:57Z) - VGSE: Visually-Grounded Semantic Embeddings for Zero-Shot Learning [113.50220968583353]
ゼロショット学習のための識別的視覚特性を含むセマンティック埋め込みを発見することを提案する。
本モデルでは,画像の集合を視覚的類似性に応じて局所的な画像領域の集合に視覚的に分割する。
視覚的に接地されたセマンティック埋め込みは、様々なZSLモデルにまたがる単語埋め込みよりも、大きなマージンで性能を向上することを示した。
論文 参考訳(メタデータ) (2022-03-20T03:49:02Z) - Boosting Entity-aware Image Captioning with Multi-modal Knowledge Graph [96.95815946327079]
名前付きエンティティの長期分布により、名前付きエンティティと視覚的キューの関係を学習することは困難である。
本稿では、視覚オブジェクトと名前付きエンティティを関連付けるために、マルチモーダルな知識グラフを構築する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-07-26T05:50:41Z) - AutoETER: Automated Entity Type Representation for Knowledge Graph
Embedding [40.900070190077024]
我々は、Entity TypE Representation(AutoETER)を用いた新しい知識グラフ埋め込み(KGE)フレームワークを開発した。
我々のアプローチは、すべての関係パターンと複雑な関係をモデル化し、推測することができる。
4つのデータセットの実験は、リンク予測タスクにおける最先端のベースラインと比較して、我々のモデルの優れた性能を示している。
論文 参考訳(メタデータ) (2020-09-25T04:27:35Z) - Connecting Embeddings for Knowledge Graph Entity Typing [22.617375045752084]
知識グラフ(KG)エンティティタイピングは、KGに欠落する可能性のあるエンティティタイプのインスタンスを推測することを目的としている。
我々は,既存のエンティティ型アサーションから局所型付け知識とKGからのグローバル三重知識を併用して学習した,KGエンティティ型付けのための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-07-21T15:00:01Z) - Interpretable Entity Representations through Large-Scale Typing [61.4277527871572]
本稿では,人間の読みやすいエンティティ表現を作成し,箱から高パフォーマンスを実現する手法を提案する。
我々の表現は、微粒な実体型に対する後続確率に対応するベクトルである。
特定のドメインに対して,学習に基づく方法で,型セットのサイズを縮小できることを示す。
論文 参考訳(メタデータ) (2020-04-30T23:58:03Z) - Exploiting Structured Knowledge in Text via Graph-Guided Representation
Learning [73.0598186896953]
本稿では、知識グラフからのガイダンスを用いて、生テキスト上で学習する2つの自己教師型タスクを提案する。
エンティティレベルのマスキング言語モデルに基づいて、最初のコントリビューションはエンティティマスキングスキームです。
既存のパラダイムとは対照的に,本手法では事前学習時にのみ,知識グラフを暗黙的に使用する。
論文 参考訳(メタデータ) (2020-04-29T14:22:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。