論文の概要: Cross-platform Product Matching Based on Entity Alignment of Knowledge Graph with RAEA model
- arxiv url: http://arxiv.org/abs/2512.07232v1
- Date: Mon, 08 Dec 2025 07:23:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.756328
- Title: Cross-platform Product Matching Based on Entity Alignment of Knowledge Graph with RAEA model
- Title(参考訳): 知識グラフのエンティティアライメントとRAEAモデルを用いたクロスプラットフォーム製品マッチング
- Authors: Wenlong Liu, Jiahua Pan, Xingyu Zhang, Xinxin Gong, Yang Ye, Xujin Zhao, Xin Wang, Kent Wu, Hua Xiang, Houmin Yan, Qingpeng Zhang,
- Abstract要約: 本稿では,eBay と Amazon の製品にマッチする粗いフィルタと細かなフィルタからなる2段階パイプラインを提案する。
微細フィルタリングには、Entity Alignment、Relation-aware、Attribute-aware Graph Attention Networks for Entity Alignment (RAEA)という新しいフレームワークが採用されている。
RAEAは属性三重項と関係三重項の間の相互作用に焦点を当て、エンティティ表現は属性と関係からのアライメントシグナルを集約する。
- 参考スコア(独自算出の注目度): 11.750769565213062
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Product matching aims to identify identical or similar products sold on different platforms. By building knowledge graphs (KGs), the product matching problem can be converted to the Entity Alignment (EA) task, which aims to discover the equivalent entities from diverse KGs. The existing EA methods inadequately utilize both attribute triples and relation triples simultaneously, especially the interactions between them. This paper introduces a two-stage pipeline consisting of rough filter and fine filter to match products from eBay and Amazon. For fine filtering, a new framework for Entity Alignment, Relation-aware and Attribute-aware Graph Attention Networks for Entity Alignment (RAEA), is employed. RAEA focuses on the interactions between attribute triples and relation triples, where the entity representation aggregates the alignment signals from attributes and relations with Attribute-aware Entity Encoder and Relation-aware Graph Attention Networks. The experimental results indicate that the RAEA model achieves significant improvements over 12 baselines on EA task in the cross-lingual dataset DBP15K (6.59% on average Hits@1) and delivers competitive results in the monolingual dataset DWY100K. The source code for experiments on DBP15K and DWY100K is available at github (https://github.com/Mockingjay-liu/RAEA-model-for-Entity-Alignment).
- Abstract(参考訳): 製品マッチングは、異なるプラットフォームで販売されている同一または類似の製品を特定することを目的としている。
ナレッジグラフ(KG)を構築することで、製品マッチング問題をエンティティアライメント(EA)タスクに変換することが可能になる。
既存のEAメソッドは属性三重項と関係三重項の両方を同時に、特にそれら間の相互作用を不十分に利用する。
本稿では,eBay と Amazon の製品にマッチする粗いフィルタと細かなフィルタからなる2段階パイプラインを提案する。
微細フィルタリングのために、Entity Alignment、Relation-aware、Attribute-aware Graph Attention Networks for Entity Alignment (RAEA)のための新しいフレームワークが採用されている。
RAEAは属性トリプルとリレーショナルトリプルの相互作用に焦点を当てており、エンティティ表現は属性からのアライメント信号を集約し、属性を意識したエンティティエンコーダとリレーショナルを意識したグラフアテンションネットワークとのリレーションを集約する。
実験結果から、RAEAモデルは、言語横断データセットDBP15K(6.59%がHits@1)で、EAタスクの12ベースラインよりも大幅に改善され、単言語データセットDWY100Kで競合結果が得られることが示された。
DBP15KとDWY100Kの実験用ソースコードはgithub(https://github.com/Mockingjay-liu/RAEA-model-for-Entity-Alignment)で入手できる。
関連論文リスト
- Entity Disambiguation via Fusion Entity Decoding [68.77265315142296]
より詳細なエンティティ記述を持つエンティティを曖昧にするためのエンコーダ・デコーダモデルを提案する。
GERBILベンチマークでは、EntQAと比較して、エンド・ツー・エンドのエンティティリンクが+1.5%改善されている。
論文 参考訳(メタデータ) (2024-04-02T04:27:54Z) - Joint Entity and Relation Extraction with Span Pruning and Hypergraph
Neural Networks [58.43972540643903]
PLマーカ(最先端マーカーベースピプレリンモデル)上に構築されたEREのためのHyperGraphニューラルネットワーク(hgnn$)を提案する。
エラーの伝播を軽減するため,NERモジュールからのエンティティ識別とラベル付けの負担をモデルのジョイントモジュールに転送するために,ハイリコールプルーナー機構を用いる。
EREタスクに広く使用されている3つのベンチマークの実験は、以前の最先端のPLマーカーよりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-10-26T08:36:39Z) - From Alignment to Entailment: A Unified Textual Entailment Framework for
Entity Alignment [17.70562397382911]
既存のメソッドは通常、エンティティのトリプルを埋め込みとしてエンコードし、埋め込みの整列を学ぶ。
我々は両トリプルを統一されたテキストシーケンスに変換し、EAタスクを双方向のテキストエンタテインメントタスクとしてモデル化する。
提案手法は,エンティティ間の2種類の情報の統合相関パターンを捕捉し,元のエンティティ情報間のきめ細かい相互作用を明示的にモデル化する。
論文 参考訳(メタデータ) (2023-05-19T08:06:50Z) - Guiding Neural Entity Alignment with Compatibility [32.22210683891481]
1つの知識グラフ内の異なるエンティティは、他のKGと互換性のあるエンティティを持つべきだ、と我々は主張する。
互換性のある予測を行うことは、ラベル付きデータの適合とともに、EAモデルをトレーニングする目標の1つであるべきです。
我々は,(1)EAモデルの適合度を測定する方法,(2)EAモデルに互換性のある特性を注入する方法,(3)互換性モデルのパラメータを最適化する方法の3つの問題に対処して,トレーニングフレームワークを考案した。
論文 参考訳(メタデータ) (2022-11-29T00:05:08Z) - Entity-Graph Enhanced Cross-Modal Pretraining for Instance-level Product
Retrieval [152.3504607706575]
本研究の目的は, 細粒度製品カテゴリを対象とした, 弱制御型マルチモーダル・インスタンスレベルの製品検索である。
まず、Product1Mデータセットをコントリビュートし、2つの実際のインスタンスレベルの検索タスクを定義します。
我々は、マルチモーダルデータから重要な概念情報を組み込むことができるより効果的なクロスモーダルモデルを訓練するために活用する。
論文 参考訳(メタデータ) (2022-06-17T15:40:45Z) - Pack Together: Entity and Relation Extraction with Levitated Marker [61.232174424421025]
エンコーダにマーカを戦略的にパッケージ化することにより,スパン(ペア)間の依存関係を検討するために,Packed Levitated Markersという新しいスパン表現手法を提案する。
実験の結果,3つの平坦なNERタスクにおいて,有望なマーカーが充填されたモデルの方がシーケンスラベルモデルよりも0.4%-1.9%優れ,トークンコンキャットモデルを6つのNERベンチマークで上回っていることがわかった。
論文 参考訳(メタデータ) (2021-09-13T15:38:13Z) - EchoEA: Echo Information between Entities and Relations for Entity
Alignment [1.1470070927586016]
本稿では,エンティティ情報を関係に拡散し,エンティティにエコーバックする自己認識機構を活用した新しいフレームワーク Echo Entity Alignment (EchoEA) を提案する。
3つの実世界のクロスランガルデータセットの実験結果は、平均して96%で安定している。
論文 参考訳(メタデータ) (2021-07-07T07:34:21Z) - RAGA: Relation-aware Graph Attention Networks for Global Entity
Alignment [14.287681294725438]
実体と関係の相互作用を捉えるために,Relation-aware Graph Attention Networksに基づく新しいフレームワークを提案する。
本フレームワークでは,エンティティ情報を関係に分散し,関係情報をエンティティに集約する自己認識機構を採用している。
論文 参考訳(メタデータ) (2021-03-01T06:30:51Z) - Exploring and Evaluating Attributes, Values, and Structures for Entity
Alignment [100.19568734815732]
エンティティアライメント(EA)は、さまざまなKGから等価なエンティティをリンクすることで、リッチコンテンツの統合知識グラフ(KG)を構築することを目的としている。
属性・トリプルは重要なアライメント信号も提供できますが、まだ十分に調査されていません。
本稿では,属性値エンコーダを用いてKGをサブグラフに分割し,属性の様々なタイプを効率的にモデル化することを提案する。
論文 参考訳(メタデータ) (2020-10-07T08:03:58Z) - HittER: Hierarchical Transformers for Knowledge Graph Embeddings [85.93509934018499]
複雑な知識グラフにおける実体と関係の表現を学習するためにHittを提案する。
実験結果から,Hittは複数リンク予測において最先端の新たな結果が得られることがわかった。
さらに,HittをBERTに統合する簡単なアプローチを提案し,その効果を2つのFreebaseファクトイド対応データセットで示す。
論文 参考訳(メタデータ) (2020-08-28T18:58:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。