論文の概要: Visual Pivoting for (Unsupervised) Entity Alignment
- arxiv url: http://arxiv.org/abs/2009.13603v2
- Date: Thu, 17 Dec 2020 02:18:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 20:46:56.630754
- Title: Visual Pivoting for (Unsupervised) Entity Alignment
- Title(参考訳): 教師なし)エンティティアライメントのためのビジュアルPivoting
- Authors: Fangyu Liu, Muhao Chen, Dan Roth, Nigel Collier
- Abstract要約: 本研究は、異種知識グラフ(KGs)におけるエンティティの整列のための視覚的意味表現の使用について研究する。
提案した新しいアプローチであるEVAは、クロスグラフエンティティアライメントのための強い信号を提供する包括的エンティティ表現を生成する。
- 参考スコア(独自算出の注目度): 93.82387952905756
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work studies the use of visual semantic representations to align
entities in heterogeneous knowledge graphs (KGs). Images are natural components
of many existing KGs. By combining visual knowledge with other auxiliary
information, we show that the proposed new approach, EVA, creates a holistic
entity representation that provides strong signals for cross-graph entity
alignment. Besides, previous entity alignment methods require human labelled
seed alignment, restricting availability. EVA provides a completely
unsupervised solution by leveraging the visual similarity of entities to create
an initial seed dictionary (visual pivots). Experiments on benchmark data sets
DBP15k and DWY15k show that EVA offers state-of-the-art performance on both
monolingual and cross-lingual entity alignment tasks. Furthermore, we discover
that images are particularly useful to align long-tail KG entities, which
inherently lack the structural contexts necessary for capturing the
correspondences.
- Abstract(参考訳): この研究は、異種知識グラフ(KG)の実体を整列させる視覚的意味表現の使用を研究する。
画像は多くの既存のkgの自然な構成要素です。
視覚知識を他の補助情報と組み合わせることで,提案する新しいアプローチであるevaが,クロスグラフエンティティアライメントに強いシグナルを与える包括的エンティティ表現を生成することを示す。
さらに、以前のエンティティアライメント手法では、可用性を制限するために、人間のラベル付きシードアライメントが必要となる。
EVAは、エンティティの視覚的類似性を活用して、初期シード辞書(視覚的なピボット)を作成する、完全に教師なしのソリューションを提供する。
ベンチマークデータセットDBP15kとDWY15kの実験は、EVAがモノリンガルとクロスリンガルの両方のエンティティアライメントタスクに対して最先端のパフォーマンスを提供することを示している。
さらに、画像は特に長い尾のKGエンティティの整列に有用であり、通信を捉えるのに必要な構造的コンテキストが本質的に欠如していることが判明した。
関連論文リスト
- DERA: Dense Entity Retrieval for Entity Alignment in Knowledge Graphs [3.500936203815729]
エンティティアライメント(EA)のための高密度エンティティ検索フレームワークを提案する。
我々は言語モデルを活用し、エンティティの様々な特徴を均一にエンコードし、知識グラフ(KG)をまたいで最も近いエンティティ検索を容易にする。
提案手法は,既存のEA手法と比較して最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-08-02T10:12:42Z) - Hypergraph based Understanding for Document Semantic Entity Recognition [65.84258776834524]
我々は,ハイパグラフアテンションを利用したハイパグラフアテンション文書セマンティックエンティティ認識フレームワークHGAを構築し,エンティティ境界とエンティティカテゴリを同時に重視する。
FUNSD, CORD, XFUNDIE で得られた結果は,本手法が意味的エンティティ認識タスクの性能を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2024-07-09T14:35:49Z) - Semi-Supervised Learning for Visual Bird's Eye View Semantic
Segmentation [16.3996408206659]
トレーニング中にラベルのない画像を活用することで性能を向上させるために,視覚的BEVセマンティックセマンティックセマンティックセマンティクスのための新しい半教師付きフレームワークを提案する。
次に、ラベルのないデータを完全に利用する一貫性損失を提案し、セマンティックな予測だけでなく、BEV機能にもモデルを制約する。
nuScenesとArgoverseデータセットの実験により、我々のフレームワークは予測精度を効果的に向上できることが示された。
論文 参考訳(メタデータ) (2023-08-28T12:23:36Z) - Advancing Visual Grounding with Scene Knowledge: Benchmark and Method [74.72663425217522]
ビジュアルグラウンドディング(VG)は、視覚と言語の間にきめ細かいアライメントを確立することを目的としている。
既存のVGデータセットの多くは、単純な記述テキストを使って構築されている。
我々は、アンダーラインScene underline-guided underlineVisual underlineGroundingの新たなベンチマークを提案する。
論文 参考訳(メタデータ) (2023-07-21T13:06:02Z) - A Fused Gromov-Wasserstein Framework for Unsupervised Knowledge Graph
Entity Alignment [22.526341223786375]
本稿では,FGW(Fused Gromov-Wasserstein)距離を利用した非教師なしエンティティアライメントフレームワークFGWEAを紹介する。
我々は,FGWEAが,最先端管理エンティティアライメント手法を含む21の競争ベースラインを超えることを示す。
論文 参考訳(メタデータ) (2023-05-11T05:17:54Z) - Visual Named Entity Linking: A New Dataset and A Baseline [61.38231023490981]
入力は画像のみで構成される純粋にビジュアルな名前付きエンティティリンク(VNEL)タスクを考える。
本稿では,視覚的・視覚的エンティティリンク(V2VEL),視覚的・テキスト的エンティティリンク(V2TEL),視覚的・テキスト的エンティティリンク(V2VEL)の3つのサブタスクを提案する。
WIKIPersonという,高品質な人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人
論文 参考訳(メタデータ) (2022-11-09T13:27:50Z) - EventEA: Benchmarking Entity Alignment for Event-centric Knowledge
Graphs [17.27027602556303]
過去の進歩は偏りと不整合性評価によるものであることが示されています。
我々は、イベント中心のKGに基づいて、異種関係と属性を持つ新しいデータセットを構築した。
この問題に対する新たなアプローチとして,エンティティアライメントのためのタイムアウェアリテラルエンコーダを提案する。
論文 参考訳(メタデータ) (2022-11-05T05:34:21Z) - Good Visual Guidance Makes A Better Extractor: Hierarchical Visual
Prefix for Multimodal Entity and Relation Extraction [88.6585431949086]
本稿では,視覚的な実体と関係抽出のための階層型ビジュアルプレフィックス融合NeTwork(HVPNeT)を提案する。
視覚的表現をプラグ可能な視覚的接頭辞とみなして, 誤りに敏感な予測決定のためのテキスト的表現を導出する。
3つのベンチマークデータセットの実験により,本手法の有効性が実証され,最先端の性能が得られた。
論文 参考訳(メタデータ) (2022-05-07T02:10:55Z) - Semi-constraint Optimal Transport for Entity Alignment with Dangling
Cases [6.755145435406154]
タングリングケース(SoTead)におけるエンティティアライメントのための半制約最適輸送と呼ばれる教師なし手法を提案する。
我々の主な考えは、2つのKG間のエンティティアライメントを、あるKGのエンティティから他のエンティティへの最適な輸送問題としてモデル化することである。
実験的な部分では、一般的に使用されるエンティティアライメントデータセット上で、まずSoTeadの優位性を示す。
論文 参考訳(メタデータ) (2022-03-11T04:20:18Z) - Cross-lingual Entity Alignment with Incidental Supervision [76.66793175159192]
本稿では,多言語KGとテキストコーパスを共通埋め込み方式で共同で表現する,偶発的に教師付きモデルであるJEANSを提案する。
ベンチマークデータセットの実験では、JEANSがエンティティアライメントとインシデントインシデントインシデントインスペクションの改善を期待できる結果となった。
論文 参考訳(メタデータ) (2020-05-01T01:53:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。