論文の概要: DynaSemble: Dynamic Ensembling of Textual and Structure-Based Models for Knowledge Graph Completion
- arxiv url: http://arxiv.org/abs/2311.03780v2
- Date: Tue, 2 Jul 2024 06:54:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-04 08:09:56.687274
- Title: DynaSemble: Dynamic Ensembling of Textual and Structure-Based Models for Knowledge Graph Completion
- Title(参考訳): DynaSemble: 知識グラフ補完のためのテキストモデルと構造ベースモデルの動的組立
- Authors: Ananjan Nandi, Navdeep Kaur, Parag Singla, Mausam,
- Abstract要約: 我々は知識グラフ補完(KGC)に対する2つの一般的なアプローチを考える。
本研究では,クエリ依存型アンサンブル重み学習手法であるDynaSembleを提案する。
DynaSembleは、3つの標準KGCデータセットで最先端の結果を達成する。
- 参考スコア(独自算出の注目度): 27.068271260978143
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We consider two popular approaches to Knowledge Graph Completion (KGC): textual models that rely on textual entity descriptions, and structure-based models that exploit the connectivity structure of the Knowledge Graph (KG). Preliminary experiments show that these approaches have complementary strengths: structure-based models perform exceptionally well when the gold answer is easily reachable from the query head in the KG, while textual models exploit descriptions to give good performance even when the gold answer is not easily reachable. In response, we propose DynaSemble, a novel method for learning query-dependent ensemble weights to combine these approaches by using the distributions of scores assigned by the models in the ensemble to all candidate entities. DynaSemble achieves state-of-the-art results on three standard KGC datasets, with up to 6.8 pt MRR and 8.3 pt Hits@1 gains over the best baseline model for the WN18RR dataset.
- Abstract(参考訳): 本稿では,KGC(Knowledge Graph Completion)に対する2つの一般的なアプローチについて考察する。テキストエンティティ記述に依存するテキストモデルと,KG(Knowledge Graph)の接続構造を利用する構造モデルである。
構造に基づくモデルは、KGのクエリーヘッドから金の解答が容易に到達でき、テキストモデルは、金の解答が容易に到達できない場合でも、説明を利用して良い性能を与える。
そこで本研究では,すべての候補エンティティに対して,モデルによって割り当てられたスコアの分布を用いて,クエリ依存のアンサンブル重みを学習する新しい手法DynaSembleを提案する。
DynaSembleは、3つの標準KGCデータセットの最先端結果を達成する。最大6.8 pt MRRと8.3 pt Hits@1は、WN18RRデータセットの最高のベースラインモデルよりも優れている。
関連論文リスト
- Deep Sparse Latent Feature Models for Knowledge Graph Completion [24.342670268545085]
本稿では,知識グラフのためのスパース潜在特徴モデルの新たなフレームワークを提案する。
我々のアプローチは、欠落した三重項を効果的に完成するだけでなく、潜伏構造の明確な解釈可能性も提供する。
提案手法は,潜在コミュニティを明らかにし,解釈可能な表現を生成することにより,性能を著しく向上させる。
論文 参考訳(メタデータ) (2024-11-24T03:17:37Z) - Graphusion: A RAG Framework for Knowledge Graph Construction with a Global Perspective [13.905336639352404]
この研究は、無料テキストからゼロショットの知識グラフフレームワークであるGraphusionを導入している。
ステップ1では、トピックモデリングを用いてシードエンティティのリストを抽出し、最終KGに最も関連性の高いエンティティを導く。
ステップ2ではLSMを用いて候補三重項抽出を行い、ステップ3では抽出した知識のグローバルなビューを提供する新しい融合モジュールを設計する。
論文 参考訳(メタデータ) (2024-10-23T06:54:03Z) - Enhancing Question Answering on Charts Through Effective Pre-training Tasks [26.571522748519584]
グラフやプロットに適用した場合の現在のVisualQAモデルの制限に対処する。
以上の結果から,既存のモデルでは,図の構造的・視覚的文脈に関する疑問に答える上で,特に性能が低いことが示唆された。
本稿では,構造的・視覚的知識と数値的疑問の理解の両面から,既存のモデルを強制する3つの簡単な事前学習タスクを提案する。
論文 参考訳(メタデータ) (2024-06-14T14:40:10Z) - StructLM: Towards Building Generalist Models for Structured Knowledge Grounding [49.10029030628653]
大規模言語モデル(LLM)では、最先端(SoTA)モデルの背後にある構造化データラグを平均35%処理できる。
私たちは、MistralとCodeLlamaモデルファミリに基づいたStructLMと呼ばれる一連のモデルをトレーニングします。
我々のStructLMシリーズは、評価された18のデータセットのうち16のタスク固有モデルを超え、8つのSKGタスクに新しいSoTAパフォーマンスを確立する。
論文 参考訳(メタデータ) (2024-02-26T15:47:01Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - Knowledge Graph Embedding: An Overview [42.16033541753744]
本稿では,知識グラフの完成に関する現在の研究状況について概観する。
我々は,KG埋め込み(KGE)設計の2つの主要分野に焦点を当てた:1)距離ベース手法と2)意味マッチング方式である。
次に,2次元および3次元アフィン操作からインスピレーションを得る複合Eと複合E3Dを探索する。
論文 参考訳(メタデータ) (2023-09-21T21:52:42Z) - A Comprehensive Study on Knowledge Graph Embedding over Relational
Patterns Based on Rule Learning [49.09125100268454]
KGE(Knowledge Graph Embedding)は、KGC(Knowledge Completion Graph)タスクを解決するための効果的なアプローチであることが証明されている。
関係パターンはKGEモデルの性能において重要な要素である。
我々は,KGEモデルの性能を様々な関係パターン上で向上させるトレーニングフリー手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T17:30:57Z) - Text-Augmented Open Knowledge Graph Completion via Pre-Trained Language
Models [53.09723678623779]
本稿では,高品質なクエリプロンプトを自動的に生成し,大規模テキストコーパスからサポート情報を取得するためのTAGREALを提案する。
その結果、TAGREALは2つのベンチマークデータセット上で最先端のパフォーマンスを達成することがわかった。
TAGREALは、限られたトレーニングデータであっても、既存の埋め込みベース、グラフベース、およびPLMベースの手法よりも優れた性能を有することが判明した。
論文 参考訳(メタデータ) (2023-05-24T22:09:35Z) - ExpressivE: A Spatio-Functional Embedding For Knowledge Graph Completion [78.8942067357231]
ExpressivEは、一対の実体を点として埋め込み、仮想三重空間に超平行グラフとして関係を埋め込む。
我々は、ExpressivEが最先端のKGEと競合し、W18RRでさらに優れています。
論文 参考訳(メタデータ) (2022-06-08T23:34:39Z) - Learning Intents behind Interactions with Knowledge Graph for
Recommendation [93.08709357435991]
知識グラフ(KG)は、推薦システムにおいてますます重要な役割を果たす。
既存のGNNベースのモデルは、きめ細かいインテントレベルでのユーザ項目関係の特定に失敗します。
本稿では,新しいモデルである知識グラフベースインテントネットワーク(kgin)を提案する。
論文 参考訳(メタデータ) (2021-02-14T03:21:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。