論文の概要: Reinforcement Learning based Collective Entity Alignment with Adaptive
Features
- arxiv url: http://arxiv.org/abs/2101.01353v1
- Date: Tue, 5 Jan 2021 05:04:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-11 11:46:31.041046
- Title: Reinforcement Learning based Collective Entity Alignment with Adaptive
Features
- Title(参考訳): 適応的特徴を用いた強化学習に基づく集団エンティティアライメント
- Authors: Weixin Zeng, Xiang Zhao, Jiuyang Tang, Xuemin Lin and Paul Groth
- Abstract要約: 本稿では,エンティティを集合的にアライメントする強化学習(RL)モデルを提案する。
RLフレームワークでは、相互依存と集団アライメントを特徴付けるコヒーレンスと排他的性制約を考案しています。
提案手法は,言語横断型と単言語型の両方のEAベンチマークで評価し,最先端のソリューションと比較した。
- 参考スコア(独自算出の注目度): 35.04861875266298
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Entity alignment (EA) is the task of identifying the entities that refer to
the same real-world object but are located in different knowledge graphs (KGs).
For entities to be aligned, existing EA solutions treat them separately and
generate alignment results as ranked lists of entities on the other side.
Nevertheless, this decision-making paradigm fails to take into account the
interdependence among entities. Although some recent efforts mitigate this
issue by imposing the 1-to-1 constraint on the alignment process, they still
cannot adequately model the underlying interdependence and the results tend to
be sub-optimal. To fill in this gap, in this work, we delve into the dynamics
of the decision-making process, and offer a reinforcement learning (RL) based
model to align entities collectively. Under the RL framework, we devise the
coherence and exclusiveness constraints to characterize the interdependence and
restrict collective alignment. Additionally, to generate more precise inputs to
the RL framework, we employ representative features to capture different
aspects of the similarity between entities in heterogeneous KGs, which are
integrated by an adaptive feature fusion strategy. Our proposal is evaluated on
both cross-lingual and mono-lingual EA benchmarks and compared against
state-of-the-art solutions. The empirical results verify its effectiveness and
superiority.
- Abstract(参考訳): エンティティアライメント(EA)は、同じ現実世界のオブジェクトを参照しているが異なる知識グラフ(KG)にあるエンティティを識別するタスクである。
エンティティをアライメントするために、既存のEAソリューションはそれらを別々に扱い、反対側のエンティティのランキングとしてアライメント結果を生成する。
しかしながら、この意思決定パラダイムは、エンティティ間の相互依存を考慮して失敗する。
近年の取り組みでは、アライメントプロセスに1-to-1制約を課すことでこの問題を緩和しているが、基礎となる相互依存性を適切にモデル化することはできない。
このギャップを埋めるため、この作業では、意思決定プロセスのダイナミクスを調べ、エンティティをまとめるための強化学習(rl)ベースのモデルを提供します。
rlフレームワークの下では、相互依存を特徴付けるために一貫性と排他性制約を考案し、集団的アライメントを制限する。
さらに、RLフレームワークへのより正確な入力を生成するために、適応的特徴融合戦略によって統合される異種KGにおけるエンティティ間の類似性の異なる側面を捉えるために、代表的特徴を用いる。
提案手法は,言語間および単言語間のEAベンチマークで評価し,最先端のソリューションと比較した。
実験結果は,その有効性と優越性を検証する。
関連論文リスト
- Attr-Int: A Simple and Effective Entity Alignment Framework for Heterogeneous Knowledge Graphs [9.725601872648566]
エンティティアライメント(EA)とは、異なる知識グラフ(KG)内のエンティティをリンクすることである。
本稿では, 異種KG間の整合性の問題について検討し, 対処する。
本稿では,Attr-Intと呼ばれるシンプルで効果的なエンティティアライメントフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-17T10:16:56Z) - A Unifying Framework for Action-Conditional Self-Predictive Reinforcement Learning [48.59516337905877]
優れた表現を学ぶことは、強化学習(RL)エージェントにとって重要な課題である。
近年の研究では、これらのアルゴリズムに関する理論的洞察が生まれている。
我々は,行動条件の自己予測的目的を分析することによって,理論と実践のギャップを埋める一歩を踏み出した。
論文 参考訳(メタデータ) (2024-06-04T07:22:12Z) - EnriCo: Enriched Representation and Globally Constrained Inference for Entity and Relation Extraction [3.579132482505273]
結合実体と関係抽出は、特に知識グラフの構築において、様々な応用において重要な役割を担っている。
既存のアプローチはしばしば、表現の豊かさと出力構造におけるコヒーレンスという2つの重要な側面に欠ける。
本研究では,これらの欠点を緩和するEnriCoを紹介する。
論文 参考訳(メタデータ) (2024-04-18T20:15:48Z) - Neural Constraint Satisfaction: Hierarchical Abstraction for
Combinatorial Generalization in Object Rearrangement [75.9289887536165]
基礎となるエンティティを明らかにするための階層的抽象化手法を提案する。
本研究では,エージェントのモデルにおける実体の状態の介入と,環境中の物体に作用する状態の対応関係を学習する方法を示す。
この対応を利用して、オブジェクトの異なる数や構成に一般化する制御法を開発する。
論文 参考訳(メタデータ) (2023-03-20T18:19:36Z) - Relational Proxies: Emergent Relationships as Fine-Grained
Discriminators [52.17542855760418]
本稿では,オブジェクトのグローバル部分とローカル部分の間の情報を利用してラベルを符号化する手法を提案する。
我々は、理論的な結果に基づいてプロキシを設計し、7つの挑戦的なきめ細かいベンチマークデータセットに基づいて評価する。
また、この理論を実験的に検証し、複数のベンチマークで一貫した結果を得る。
論文 参考訳(メタデータ) (2022-10-05T11:08:04Z) - Deep Reinforcement Learning for Entity Alignment [25.78510840144251]
強化学習(RL)に基づくエンティティアライメントフレームワークを提案する。
ほとんどの埋め込みベースのエンティティアライメントメソッドに柔軟に適用できる。
いくつかの最先端メソッドのパフォーマンスを継続的に向上し、Hits@1で最大31.1%向上した。
論文 参考訳(メタデータ) (2022-03-07T11:49:40Z) - ICLEA: Interactive Contrastive Learning for Self-supervised Entity
Alignment [27.449414854756913]
自己管理エンティティアライメント(EA)は、シードアライメントなしで異なる知識グラフ(KG)に等価なエンティティをリンクすることを目的としている。
現在のSOTA自己監督型EA法は、もともとコンピュータビジョンで設計されたコントラスト学習からインスピレーションを得ている。
自己管理型EAのための対話型コントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2022-01-17T06:04:00Z) - Informed Multi-context Entity Alignment [27.679124991733907]
Informed Multi-context Entity Alignment (IMEA)モデルを提案する。
特にTransformerを導入し、関係、経路、近傍のコンテキストを柔軟にキャプチャする。
総論的推論は、埋め込み類似性と関係性/整合性の両方の機能に基づいてアライメント確率を推定するために用いられる。
いくつかのベンチマークデータセットの結果は、既存の最先端エンティティアライメント手法と比較して、IMEAモデルの優位性を示している。
論文 参考訳(メタデータ) (2022-01-02T06:29:30Z) - Cross-Supervised Joint-Event-Extraction with Heterogeneous Information
Networks [61.950353376870154]
Joint-event- Extractは、トリガとエンティティのタグからなるタグセットを備えたシーケンスからシーケンスまでのラベリングタスクである。
トリガやエンティティの抽出を交互に監督するクロススーパーバイザードメカニズム(CSM)を提案する。
我々の手法は、エンティティとトリガー抽出の両方において最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2020-10-13T11:51:17Z) - Coordinated Reasoning for Cross-Lingual Knowledge Graph Alignment [74.0482641714311]
本稿では,2つのコーディネート推論手法,すなわち Easy-to-Hardデコード戦略とジョイントエンティティアライメントアルゴリズムを導入する。
我々のモデルは最先端の性能を実現し,提案手法は既存のベースラインを大幅に改善する。
論文 参考訳(メタデータ) (2020-01-23T18:41:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。