論文の概要: Attribute-Consistent Knowledge Graph Representation Learning for
Multi-Modal Entity Alignment
- arxiv url: http://arxiv.org/abs/2304.01563v1
- Date: Tue, 4 Apr 2023 06:39:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 14:52:52.877655
- Title: Attribute-Consistent Knowledge Graph Representation Learning for
Multi-Modal Entity Alignment
- Title(参考訳): 属性整合型知識グラフ表現学習によるマルチモーダルエンティティアライメント
- Authors: Qian Li, Shu Guo, Yangyifei Luo, Cheng Ji, Lihong Wang, Jiawei Sheng,
Jianxin Li
- Abstract要約: MMEA(ACK-MMEA)のための属性一貫性のある知識グラフ表現学習フレームワークを提案する。
当社のアプローチは、競合他社と比較して優れたパフォーマンスを実現している。
- 参考スコア(独自算出の注目度): 14.658282035561792
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The multi-modal entity alignment (MMEA) aims to find all equivalent entity
pairs between multi-modal knowledge graphs (MMKGs). Rich attributes and
neighboring entities are valuable for the alignment task, but existing works
ignore contextual gap problems that the aligned entities have different numbers
of attributes on specific modality when learning entity representations. In
this paper, we propose a novel attribute-consistent knowledge graph
representation learning framework for MMEA (ACK-MMEA) to compensate the
contextual gaps through incorporating consistent alignment knowledge.
Attribute-consistent KGs (ACKGs) are first constructed via multi-modal
attribute uniformization with merge and generate operators so that each entity
has one and only one uniform feature in each modality. The ACKGs are then fed
into a relation-aware graph neural network with random dropouts, to obtain
aggregated relation representations and robust entity representations. In order
to evaluate the ACK-MMEA facilitated for entity alignment, we specially design
a joint alignment loss for both entity and attribute evaluation. Extensive
experiments conducted on two benchmark datasets show that our approach achieves
excellent performance compared to its competitors.
- Abstract(参考訳): マルチモーダルエンティティアライメント(mmea)は、マルチモーダルナレッジグラフ(mmkgs)間の全ての等価エンティティペアを見つけることを目的としている。
リッチ属性と隣接エンティティはアライメントタスクに有用であるが、既存の研究は、アライメントエンティティがエンティティ表現を学ぶ際に特定のモダリティに関する属性の数が異なるという文脈的ギャップの問題を無視している。
本稿では,一貫したアライメント知識を組み込むことでコンテキストギャップを補うための,MMEA(ACK-MMEA)のための属性一貫性のある知識グラフ表現学習フレームワークを提案する。
属性一貫性を持つKG(ACKG)は、まずマルチモーダル属性の統一化によって構成され、各エンティティが各モーダルに1つの一様特徴を持つように演算子を生成する。
ACKGはランダムなドロップアウトを持つ関係対応グラフニューラルネットワークに入力され、集約された関係表現と堅牢な実体表現を得る。
エンティティアライメントを容易にするACK-MMEAを評価するために,属性評価とエンティティアライメント評価の両方のための共同アライメント損失を特別に設計する。
2つのベンチマークデータセットで広範な実験を行った結果,本手法は競合他社と比較して優れた性能を達成できた。
関連論文リスト
- MCSFF: Multi-modal Consistency and Specificity Fusion Framework for Entity Alignment [7.109735168520378]
知識グラフの強化と質問応答システムの改善には,MMEA(Multi-modal entity alignment)が不可欠である。
既存の方法は、しばしばそれらの相補性を通じてモダリティを統合することにフォーカスするが、各モダリティの特異性を見落としている。
本稿では,モダリティの相補性と特異性の両方を革新的に統合するマルチモーダル一貫性・特異性融合フレームワーク(MCSFF)を提案する。
論文 参考訳(メタデータ) (2024-10-18T16:35:25Z) - OneNet: A Fine-Tuning Free Framework for Few-Shot Entity Linking via Large Language Model Prompting [49.655711022673046]
OneNetは、大規模言語モデル(LLM)の少数ショット学習機能を利用する革新的なフレームワークで、微調整は不要である。
1)無関係なエンティティを要約してフィルタリングすることで入力を単純化するエンティティリダクションプロセッサ,(2)コンテキスト的キューと事前知識を組み合わせて正確なエンティティリンクを行うデュアルパースペクティブエンティティリンカ,(3)エンティティリンク推論における幻覚を緩和するユニークな一貫性アルゴリズムを利用するエンティティコンセンサス判定器,である。
論文 参考訳(メタデータ) (2024-10-10T02:45:23Z) - DERA: Dense Entity Retrieval for Entity Alignment in Knowledge Graphs [3.500936203815729]
エンティティアライメント(EA)のための高密度エンティティ検索フレームワークを提案する。
我々は言語モデルを活用し、エンティティの様々な特徴を均一にエンコードし、知識グラフ(KG)をまたいで最も近いエンティティ検索を容易にする。
提案手法は,既存のEA手法と比較して最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-08-02T10:12:42Z) - NativE: Multi-modal Knowledge Graph Completion in the Wild [51.80447197290866]
本研究では,MMKGCを実現するための包括的フレームワークNativEを提案する。
NativEは、任意のモダリティに対して適応的な融合を可能にするリレーショナル誘導デュアルアダプティブフュージョンモジュールを提案する。
提案手法を評価するために,5つのデータセットを用いたWildKGCという新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2024-03-28T03:04:00Z) - Two Heads Are Better Than One: Integrating Knowledge from Knowledge
Graphs and Large Language Models for Entity Alignment [31.70064035432789]
LLMEA(Large Language Model-enhanced Entity Alignment Framework)を提案する。
LLMEAは、知識グラフにまたがるエンティティ間の類似性を埋め込んだり、仮想の等価エンティティとの距離を編集することで、特定のエンティティの候補アライメントを識別する。
3つの公開データセットで実施された実験により、LLMEAが主要なベースラインモデルを上回ることが判明した。
論文 参考訳(メタデータ) (2024-01-30T12:41:04Z) - Heterogeneous Entity Matching with Complex Attribute Associations using
BERT and Neural Networks [0.7252027234425334]
複雑な属性関係をキャプチャするエンティティマッチングモデル(EMM-CCAR)を導入する。
具体的には、マッチングタスクをシーケンスマッチング問題に変換して、さまざまなデータフォーマットの影響を軽減する。
DER-SSMとDittoのアプローチと比較すると,F1スコアの約4%,F1スコアの約1%の改善が得られた。
論文 参考訳(メタデータ) (2023-09-20T03:49:57Z) - Named Entity Recognition via Machine Reading Comprehension: A Multi-Task
Learning Approach [50.12455129619845]
Named Entity Recognition (NER) は、テキスト内のエンティティの参照を事前に定義された型に抽出し、分類することを目的としている。
我々は,MRCベースのNERを改善するために,エンティティタイプ間のラベル依存性をマルチタスク学習フレームワークに組み込むことを提案する。
論文 参考訳(メタデータ) (2023-09-20T03:15:05Z) - Multi-modal Contrastive Representation Learning for Entity Alignment [57.92705405276161]
マルチモーダルなエンティティアライメントは、2つの異なるマルチモーダルな知識グラフ間で等価なエンティティを識別することを目的としている。
マルチモーダルコントラスト学習に基づくエンティティアライメントモデルであるMCLEAを提案する。
特に、MCLEAはまず複数のモダリティから複数の個別表現を学習し、その後、モダリティ内およびモダリティ間相互作用を共同でモデル化するコントラスト学習を行う。
論文 参考訳(メタデータ) (2022-09-02T08:59:57Z) - Entity-Graph Enhanced Cross-Modal Pretraining for Instance-level Product
Retrieval [152.3504607706575]
本研究の目的は, 細粒度製品カテゴリを対象とした, 弱制御型マルチモーダル・インスタンスレベルの製品検索である。
まず、Product1Mデータセットをコントリビュートし、2つの実際のインスタンスレベルの検索タスクを定義します。
我々は、マルチモーダルデータから重要な概念情報を組み込むことができるより効果的なクロスモーダルモデルを訓練するために活用する。
論文 参考訳(メタデータ) (2022-06-17T15:40:45Z) - MGA-VQA: Multi-Granularity Alignment for Visual Question Answering [75.55108621064726]
視覚的な質問に答えることを学ぶことは、マルチモーダル入力が2つの特徴空間内にあるため、難しい作業である。
視覚質問応答タスク(MGA-VQA)のための多言語アライメントアーキテクチャを提案する。
我々のモデルはアライメントを異なるレベルに分割し、追加のデータやアノテーションを必要とせずにより良い相関関係を学習します。
論文 参考訳(メタデータ) (2022-01-25T22:30:54Z) - Informed Multi-context Entity Alignment [27.679124991733907]
Informed Multi-context Entity Alignment (IMEA)モデルを提案する。
特にTransformerを導入し、関係、経路、近傍のコンテキストを柔軟にキャプチャする。
総論的推論は、埋め込み類似性と関係性/整合性の両方の機能に基づいてアライメント確率を推定するために用いられる。
いくつかのベンチマークデータセットの結果は、既存の最先端エンティティアライメント手法と比較して、IMEAモデルの優位性を示している。
論文 参考訳(メタデータ) (2022-01-02T06:29:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。