論文の概要: Dipping PLMs Sauce: Bridging Structure and Text for Effective Knowledge
Graph Completion via Conditional Soft Prompting
- arxiv url: http://arxiv.org/abs/2307.01709v1
- Date: Tue, 4 Jul 2023 13:24:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-06 16:59:12.833290
- Title: Dipping PLMs Sauce: Bridging Structure and Text for Effective Knowledge
Graph Completion via Conditional Soft Prompting
- Title(参考訳): ディッピングPLM:条件付きソフトプロンプティングによる効果的な知識グラフ補完のためのブリッジ構造とテキスト
- Authors: Chen Chen, Yufei Wang, Aixin Sun, Bing Li and Kwok-Yan Lam
- Abstract要約: 本稿では,構造情報とテキスト知識のバランスを保つCSProm-KG(Conditional Soft Prompts for KGC)を提案する。
WN18RR, FB15K-237, Wikidata5Mの3つの静的KGCベンチマークとICEWS14, ICEWS05-15におけるCSProm-KGの有効性を検証する。
- 参考スコア(独自算出の注目度): 35.79478289974962
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge Graph Completion (KGC) often requires both KG structural and
textual information to be effective. Pre-trained Language Models (PLMs) have
been used to learn the textual information, usually under the fine-tune
paradigm for the KGC task. However, the fine-tuned PLMs often overwhelmingly
focus on the textual information and overlook structural knowledge. To tackle
this issue, this paper proposes CSProm-KG (Conditional Soft Prompts for KGC)
which maintains a balance between structural information and textual knowledge.
CSProm-KG only tunes the parameters of Conditional Soft Prompts that are
generated by the entities and relations representations. We verify the
effectiveness of CSProm-KG on three popular static KGC benchmarks WN18RR,
FB15K-237 and Wikidata5M, and two temporal KGC benchmarks ICEWS14 and
ICEWS05-15. CSProm-KG outperforms competitive baseline models and sets new
state-of-the-art on these benchmarks. We conduct further analysis to show (i)
the effectiveness of our proposed components, (ii) the efficiency of CSProm-KG,
and (iii) the flexibility of CSProm-KG.
- Abstract(参考訳): 知識グラフ補完(KGC)は、しばしばKG構造情報とテキスト情報の両方を有効にする必要がある。
事前訓練された言語モデル(PLM)は、通常、KGCタスクの微調整パラダイムの下で、テキスト情報を学ぶために使われてきた。
しかし、微調整されたplmは、しばしばテキスト情報に集中し、構造的知識を見落としている。
本稿では,構造情報とテキスト知識のバランスを保つCSProm-KG(Conditional Soft Prompts for KGC)を提案する。
CSProm-KGは、エンティティと関係表現によって生成される条件付きソフトプロンプトのパラメータのみをチューニングする。
WN18RR, FB15K-237, Wikidata5Mの3つの静的KGCベンチマークとICEWS14, ICEWS05-15におけるCSProm-KGの有効性を検証する。
CSProm-KGは競争ベースラインモデルより優れており、これらのベンチマークで新たな最先端を設定できる。
さらなる分析を行い
i)提案したコンポーネントの有効性。
(ii)csprom-kgの効率、及び
(iii) csprom-kgの柔軟性。
関連論文リスト
- Multi-perspective Improvement of Knowledge Graph Completion with Large
Language Models [95.31941227776711]
我々は,文脈知識の不足を補うMPIKGCを提案し,大規模言語モデル(LLM)をクエリすることでKGCを改善する。
我々は4つの記述に基づくKGCモデルと4つのデータセットに基づくフレームワークの広範囲な評価を行い、リンク予測とトリプルト分類のタスクについて検討した。
論文 参考訳(メタデータ) (2024-03-04T12:16:15Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - Prompting Disentangled Embeddings for Knowledge Graph Completion with
Pre-trained Language Model [38.00241874974804]
グラフ構造とテキスト情報の両方が知識グラフ補完(KGC)において重要な役割を果たす
本稿では, PDKGCと呼ばれる新しいKGC手法を提案し, ハードタスクプロンプトとアンタングル構造プロンプトの2つのプロンプトを提案する。
2つのプロンプトにより、PDKGCはテキスト予測器と構造予測器をそれぞれ構築し、それらの組み合わせはより包括的なエンティティ予測をもたらす。
論文 参考訳(メタデータ) (2023-12-04T12:20:25Z) - Unifying Structure and Language Semantic for Efficient Contrastive
Knowledge Graph Completion with Structured Entity Anchors [0.3913403111891026]
知識グラフ補完(KGC)の目標は、すでに知られている訓練された事実を用いて、KGの欠落したリンクを予測することである。
本稿では,帰納的推論の力を失うことなく,構造情報と言語意味を効果的に統一する手法を提案する。
論文 参考訳(メタデータ) (2023-11-07T11:17:55Z) - KG-GPT: A General Framework for Reasoning on Knowledge Graphs Using
Large Language Models [18.20425100517317]
本稿では,知識グラフを用いたタスクに対して,大規模言語モデルを活用するフレームワークであるKG-GPTを提案する。
KG-GPTは文の分割、関連するグラフコンポーネントの検索、論理的結論の導出という3つのステップから構成される。
KGベースの事実検証とKGQAベンチマークを用いてKG-GPTを評価する。
論文 参考訳(メタデータ) (2023-10-17T12:51:35Z) - Text-To-KG Alignment: Comparing Current Methods on Classification Tasks [2.191505742658975]
知識グラフ(KG)は、事実情報の密集した構造化された表現を提供する。
最近の研究は、追加のコンテキストとしてKGから情報を取得するパイプラインモデルの作成に重点を置いている。
現在のメソッドが、アライメントされたサブグラフがクエリに完全に関連しているシナリオとどのように比較されているかは分かっていない。
論文 参考訳(メタデータ) (2023-06-05T13:45:45Z) - Knowledge Is Flat: A Seq2Seq Generative Framework for Various Knowledge
Graph Completion [18.581223721903147]
KG-S2SはSeq2Seq生成フレームワークであり、異なる言語化可能なグラフ構造に対処できる。
我々は、KG-S2Sが多くの競争ベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2022-09-15T13:49:40Z) - UnifiedSKG: Unifying and Multi-Tasking Structured Knowledge Grounding
with Text-to-Text Language Models [170.88745906220174]
本稿では,21のSKGタスクをテキスト・テキスト・フォーマットに統一するSKGフレームワークを提案する。
我々は,UnifiedSKGが21タスクのほぼすべてにおいて最先端のパフォーマンスを達成することを示す。
また、UnifiedSKGを用いて、SKGタスク間の変異をコードする構造化知識に関する一連の実験を行う。
論文 参考訳(メタデータ) (2022-01-16T04:36:18Z) - Compact Graph Structure Learning via Mutual Information Compression [79.225671302689]
グラフ構造学習(GSL)は、グラフニューラルネットワーク(GNN)のグラフ構造と学習パラメータを最適化する能力に大きな注目を集めている。
我々は、MI圧縮によるコンパクトGSLアーキテクチャ、CoGSLを提案する。
クリーンで攻撃的な条件下で複数のデータセットに対して広範な実験を行い、CoGSLの有効性とロバスト性を実証した。
論文 参考訳(メタデータ) (2022-01-14T16:22:33Z) - Inductive Learning on Commonsense Knowledge Graph Completion [89.72388313527296]
コモンセンス知識グラフ(英: Commonsense Knowledge graph、CKG)は、知識グラフ(英: knowledge graph、CKG)の一種。
本稿では,未確認のエンティティがテスト時に現れるCKG完了のための帰納学習環境について検討する。
InductivEは、ATOMICとConceptNetベンチマークの標準設定とインダクティブ設定の両方において、最先端のベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2020-09-19T16:10:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。