論文の概要: Transformer-based Entity Typing in Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2210.11151v1
- Date: Thu, 20 Oct 2022 10:40:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 14:41:16.132101
- Title: Transformer-based Entity Typing in Knowledge Graphs
- Title(参考訳): 知識グラフにおけるトランスフォーマーに基づくエンティティタイピング
- Authors: Zhiwei Hu, V\'ictor Guti\'errez-Basulto, Zhiliang Xiang, Ru Li, Jeff
Z. Pan
- Abstract要約: 本稿では,エンティティの隣人の内容を効果的にエンコードする,トランスフォーマーベースのエンティティタイピング手法を提案する。
2つの実世界のデータセットの実験は、最先端のデータセットと比較して、TETの優れたパフォーマンスを示している。
- 参考スコア(独自算出の注目度): 17.134032162338833
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate the knowledge graph entity typing task which aims at inferring
plausible entity types. In this paper, we propose a novel Transformer-based
Entity Typing (TET) approach, effectively encoding the content of neighbors of
an entity. More precisely, TET is composed of three different mechanisms: a
local transformer allowing to infer missing types of an entity by independently
encoding the information provided by each of its neighbors; a global
transformer aggregating the information of all neighbors of an entity into a
single long sequence to reason about more complex entity types; and a context
transformer integrating neighbors content based on their contribution to the
type inference through information exchange between neighbor pairs.
Furthermore, TET uses information about class membership of types to
semantically strengthen the representation of an entity. Experiments on two
real-world datasets demonstrate the superior performance of TET compared to the
state-of-the-art.
- Abstract(参考訳): 本稿では,エンティティ型を推定することを目的とした知識グラフエンティティ型付けタスクについて検討する。
本稿では,エンティティの隣人の内容を効果的にエンコードする,トランスフォーマーベースのエンティティタイピング(TET)手法を提案する。
More precisely, TET is composed of three different mechanisms: a local transformer allowing to infer missing types of an entity by independently encoding the information provided by each of its neighbors; a global transformer aggregating the information of all neighbors of an entity into a single long sequence to reason about more complex entity types; and a context transformer integrating neighbors content based on their contribution to the type inference through information exchange between neighbor pairs.
さらに、TETは型のクラスメンバシップに関する情報を使用して、エンティティの表現を意味的に強化する。
2つの実世界のデータセットの実験は、最先端のデータセットと比較してTETの優れたパフォーマンスを示している。
関連論文リスト
- COTET: Cross-view Optimal Transport for Knowledge Graph Entity Typing [27.28214706269035]
知識グラフエンティティタイピングは、知識グラフに欠けているエンティティタイプのインスタンスを推論することを目的としている。
これまでの研究は主に、エンティティに関連するコンテキスト情報を活用することに焦点を当ててきた。
本稿では,知識グラフのエンティティ型付けのためのクロスビュー最適トランスポートを提案する。
論文 参考訳(メタデータ) (2024-05-22T12:53:12Z) - Entity Disambiguation via Fusion Entity Decoding [68.77265315142296]
より詳細なエンティティ記述を持つエンティティを曖昧にするためのエンコーダ・デコーダモデルを提案する。
GERBILベンチマークでは、EntQAと比較して、エンド・ツー・エンドのエンティティリンクが+1.5%改善されている。
論文 参考訳(メタデータ) (2024-04-02T04:27:54Z) - Seed-Guided Fine-Grained Entity Typing in Science and Engineering
Domains [51.02035914828596]
科学・工学分野において,シード誘導型細粒度エンティティタイピングの課題について検討する。
まず、ラベルのないコーパスから各タイプのエンティティを抽出し、弱い監視力を高めるSETypeを提案する。
そして、リッチなエンティティをラベルなしのテキストにマッチさせ、擬似ラベル付きサンプルを取得し、見知らぬ型と見えない型の両方に推論できるテキストエンテリメントモデルを訓練する。
論文 参考訳(メタデータ) (2024-01-23T22:36:03Z) - Multi-view Contrastive Learning for Entity Typing over Knowledge Graphs [25.399684403558553]
知識グラフ・エンティティ・タイピング(MCLET)のためのマルチビューコントラスト学習法を提案する。
MCLETはクラスタが提供する粗い知識をエンティティや型埋め込みに効果的にエンコードする。
論文 参考訳(メタデータ) (2023-10-18T14:41:09Z) - Multi-Modal Knowledge Graph Transformer Framework for Multi-Modal Entity
Alignment [17.592908862768425]
そこで我々はMoAlignと呼ばれる新しいMMEA変換器を提案し,その特徴,マルチモーダル属性,エンティティタイプを階層的に導入する。
変換器の複数の情報をよりよく統合する能力を利用して、変換器エンコーダの階層的修飾自己保持ブロックを設計する。
当社のアプローチは強力な競争相手よりも優れ,優れたエンティティアライメント性能を実現している。
論文 参考訳(メタデータ) (2023-10-10T07:06:06Z) - From Alignment to Entailment: A Unified Textual Entailment Framework for
Entity Alignment [17.70562397382911]
既存のメソッドは通常、エンティティのトリプルを埋め込みとしてエンコードし、埋め込みの整列を学ぶ。
我々は両トリプルを統一されたテキストシーケンスに変換し、EAタスクを双方向のテキストエンタテインメントタスクとしてモデル化する。
提案手法は,エンティティ間の2種類の情報の統合相関パターンを捕捉し,元のエンティティ情報間のきめ細かい相互作用を明示的にモデル化する。
論文 参考訳(メタデータ) (2023-05-19T08:06:50Z) - SIM-Trans: Structure Information Modeling Transformer for Fine-grained
Visual Categorization [59.732036564862796]
本稿では,オブジェクト構造情報を変換器に組み込んだSIM-Trans(Structure Information Modeling Transformer)を提案する。
提案した2つのモジュールは軽量化されており、任意のトランスフォーマーネットワークにプラグインでき、エンドツーエンドで容易に訓練できる。
実験と解析により,提案したSIM-Transが細粒度視覚分類ベンチマークの最先端性能を達成することを示した。
論文 参考訳(メタデータ) (2022-08-31T03:00:07Z) - Masked Transformer for Neighhourhood-aware Click-Through Rate Prediction [74.52904110197004]
本稿では,近隣相互作用に基づくCTR予測を提案し,そのタスクを異種情報ネットワーク(HIN)設定に組み込む。
周辺地域の表現を高めるために,ノード間のトポロジカルな相互作用を4種類検討する。
本研究では,2つの実世界のデータセットに関する総合的な実験を行い,提案手法が最先端のCTRモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2022-01-25T12:44:23Z) - HittER: Hierarchical Transformers for Knowledge Graph Embeddings [85.93509934018499]
複雑な知識グラフにおける実体と関係の表現を学習するためにHittを提案する。
実験結果から,Hittは複数リンク予測において最先端の新たな結果が得られることがわかった。
さらに,HittをBERTに統合する簡単なアプローチを提案し,その効果を2つのFreebaseファクトイド対応データセットで示す。
論文 参考訳(メタデータ) (2020-08-28T18:58:15Z) - Interpretable Entity Representations through Large-Scale Typing [61.4277527871572]
本稿では,人間の読みやすいエンティティ表現を作成し,箱から高パフォーマンスを実現する手法を提案する。
我々の表現は、微粒な実体型に対する後続確率に対応するベクトルである。
特定のドメインに対して,学習に基づく方法で,型セットのサイズを縮小できることを示す。
論文 参考訳(メタデータ) (2020-04-30T23:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。