論文の概要: CKG: Dynamic Representation Based on Context and Knowledge Graph
- arxiv url: http://arxiv.org/abs/2212.04909v1
- Date: Fri, 9 Dec 2022 15:17:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 14:54:34.803628
- Title: CKG: Dynamic Representation Based on Context and Knowledge Graph
- Title(参考訳): CKG:コンテキストと知識グラフに基づく動的表現
- Authors: Xunzhu Tang and Tiezhu Sun and Rujie Zhu and Shi Wang
- Abstract要約: textbfContext と textbfKnowledge textbfGraph に基づいた動的表現法 CKG を提案する。
一方、CKGは、大きなコーパスの豊富な意味情報を抽出することができるが、他方では、大きなコーパスにおける共起や、KGにおける類似エンティティのような外部情報といった内部情報をフル活用することができる。
- 参考スコア(独自算出の注目度): 3.6218114438487086
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, neural language representation models pre-trained on large corpus
can capture rich co-occurrence information and be fine-tuned in downstream
tasks to improve the performance. As a result, they have achieved
state-of-the-art results in a large range of language tasks. However, there
exists other valuable semantic information such as similar, opposite, or other
possible meanings in external knowledge graphs (KGs). We argue that entities in
KGs could be used to enhance the correct semantic meaning of language
sentences. In this paper, we propose a new method CKG: Dynamic Representation
Based on \textbf{C}ontext and \textbf{K}nowledge \textbf{G}raph. On the one
side, CKG can extract rich semantic information of large corpus. On the other
side, it can make full use of inside information such as co-occurrence in large
corpus and outside information such as similar entities in KGs. We conduct
extensive experiments on a wide range of tasks, including QQP, MRPC, SST-5,
SQuAD, CoNLL 2003, and SNLI. The experiment results show that CKG achieves SOTA
89.2 on SQuAD compared with SAN (84.4), ELMo (85.8), and BERT$_{Base}$ (88.5).
- Abstract(参考訳): 近年,大規模コーパスで事前学習したニューラルネットワーク表現モデルは,豊富な共起情報を取り込み,下流タスクで微調整することで,パフォーマンスを向上させることができる。
その結果、彼らは様々な言語タスクにおいて最先端の結果を得た。
しかし、外部知識グラフ(KG)には、類似、反対、その他の可能な意味など、他の重要な意味情報が存在する。
kgsのエンティティは、言語文の正しい意味的意味を高めるのに使用できると主張する。
本稿では,新しい手法である ckg: 動的表現法である \textbf{c}ontext と \textbf{k}nowledge \textbf{g}raph を提案する。
一方、ckgは大きなコーパスの豊富な意味情報を抽出することができる。
一方、大規模なコーパスにおける共起や、KGにおける類似エンティティのような外部情報などの内部情報をフル活用することができる。
我々は、QQP、MRPC、SST-5、SQuAD、CoNLL 2003、SNLIを含む幅広いタスクについて広範な実験を行った。
その結果、CKG は SAN (84.4), ELMo (85.8), BERT$_{Base}$ (88.5) と比較して SQuAD 上で SOTA 89.2 を達成することがわかった。
関連論文リスト
- Context Graph [8.02985792541121]
本稿では,大規模言語モデル(LLM)を活用して候補エンティティや関連するコンテキストを検索する,コンテキストグラフ推論のtextbfCGR$3$パラダイムを提案する。
実験の結果、CGR$3$はKG完了(KGC)およびKG質問応答(KGQA)タスクの性能を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-06-17T02:59:19Z) - EntailE: Introducing Textual Entailment in Commonsense Knowledge Graph
Completion [54.12709176438264]
Commonsense knowledge graph(CSKG)は、名前付きエンティティ、短いフレーズ、イベントをノードとして表現するために自由形式のテキストを使用する。
現在の手法では意味的類似性を利用してグラフ密度を増大させるが、ノードとその関係のセマンティックな妥当性は未探索である。
そこで本研究では,CSKGノード間の暗黙的な包絡関係を見つけるために,テキストエンテーメントを導入し,同じ概念クラス内のサブグラフ接続ノードを効果的に密度化することを提案する。
論文 参考訳(メタデータ) (2024-02-15T02:27:23Z) - FedMKGC: Privacy-Preserving Federated Multilingual Knowledge Graph
Completion [21.4302940596294]
知識グラフ補完(KGC)は、知識グラフ(KG)の欠落事実を予測することを目的とする。
KG間で生データを転送することに依存する従来の方法は、プライバシー上の懸念を提起している。
我々は、生データ交換やエンティティアライメントを必要とせずに、複数のKGから暗黙的に知識を集約する新しい連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-17T08:09:27Z) - Text-To-KG Alignment: Comparing Current Methods on Classification Tasks [2.191505742658975]
知識グラフ(KG)は、事実情報の密集した構造化された表現を提供する。
最近の研究は、追加のコンテキストとしてKGから情報を取得するパイプラインモデルの作成に重点を置いている。
現在のメソッドが、アライメントされたサブグラフがクエリに完全に関連しているシナリオとどのように比較されているかは分かっていない。
論文 参考訳(メタデータ) (2023-06-05T13:45:45Z) - Deep Bidirectional Language-Knowledge Graph Pretraining [159.9645181522436]
DRAGONは、テキストとKGを大規模に融合した言語知識基盤モデルを事前学習するための自己教師型アプローチである。
我々のモデルは、入力としてテキストセグメントと関連するKGサブグラフのペアを取り、両モードから情報を双方向に融合する。
論文 参考訳(メタデータ) (2022-10-17T18:02:52Z) - KGxBoard: Explainable and Interactive Leaderboard for Evaluation of
Knowledge Graph Completion Models [76.01814380927507]
KGxBoardは、データの意味のあるサブセットを詳細に評価するためのインタラクティブなフレームワークである。
実験では,KGxBoardを用いることで,標準平均シングルスコアメトリクスでは検出が不可能であったことを強調した。
論文 参考訳(メタデータ) (2022-08-23T15:11:45Z) - GreenKGC: A Lightweight Knowledge Graph Completion Method [32.528770408502396]
GreenKGCは、知識グラフ内のエンティティ間の欠落した関係を見つけることを目的としている。
表現学習、特徴抽出、決定学習の3つのモジュールで構成されている。
低次元では、GreenKGCはほとんどのデータセットでSOTAメソッドより優れている。
論文 参考訳(メタデータ) (2022-08-19T03:33:45Z) - Explainable Sparse Knowledge Graph Completion via High-order Graph
Reasoning Network [111.67744771462873]
本稿では,スパース知識グラフ(KG)のための新しい説明可能なモデルを提案する。
高次推論をグラフ畳み込みネットワーク、すなわちHoGRNに結合する。
情報不足を緩和する一般化能力を向上させるだけでなく、解釈可能性も向上する。
論文 参考訳(メタデータ) (2022-07-14T10:16:56Z) - Inductive Learning on Commonsense Knowledge Graph Completion [89.72388313527296]
コモンセンス知識グラフ(英: Commonsense Knowledge graph、CKG)は、知識グラフ(英: knowledge graph、CKG)の一種。
本稿では,未確認のエンティティがテスト時に現れるCKG完了のための帰納学習環境について検討する。
InductivEは、ATOMICとConceptNetベンチマークの標準設定とインダクティブ設定の両方において、最先端のベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2020-09-19T16:10:26Z) - On the Role of Conceptualization in Commonsense Knowledge Graph
Construction [59.39512925793171]
アトミックやASERのような常識知識グラフ(CKG)は、従来のKGと大きく異なる。
本稿では, CKG の概念化手法を紹介し, テキストに記述されたエンティティを特定の概念のインスタンスとみなすか, あるいはその逆を例に紹介する。
提案手法は, 可塑性三重項を効果的に同定し, 新たなノードの3重項と, 多様性と新規性の両端項によってKGを拡張できる。
論文 参考訳(メタデータ) (2020-03-06T14:35:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。