論文の概要: Improving Knowledge Graph Representation Learning by Structure
Contextual Pre-training
- arxiv url: http://arxiv.org/abs/2112.04087v1
- Date: Wed, 8 Dec 2021 02:50:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-10 00:22:48.805144
- Title: Improving Knowledge Graph Representation Learning by Structure
Contextual Pre-training
- Title(参考訳): 構造文脈事前学習による知識グラフ表現学習の改善
- Authors: Ganqiang Ye, Wen Zhang, Zhen Bi, Chi Man Wong, Chen Hui and Huajun
Chen
- Abstract要約: 本稿では,知識グラフ表現学習のための学習前処理フレームワークを提案する。
KGモデルは3つの分類タスクで事前訓練され、続いて特定の下流タスクで識別的微調整が行われる。
実験結果から, 微調整SCoPは下流タスクのポートフォリオにおけるベースラインの結果を上回るだけでなく, 面倒なタスク固有のモデル設計やパラメータトレーニングを回避していることがわかった。
- 参考スコア(独自算出の注目度): 9.70121995251553
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Representation learning models for Knowledge Graphs (KG) have proven to be
effective in encoding structural information and performing reasoning over KGs.
In this paper, we propose a novel pre-training-then-fine-tuning framework for
knowledge graph representation learning, in which a KG model is firstly
pre-trained with triple classification task, followed by discriminative
fine-tuning on specific downstream tasks such as entity type prediction and
entity alignment. Drawing on the general ideas of learning deep contextualized
word representations in typical pre-trained language models, we propose SCoP to
learn pre-trained KG representations with structural and contextual triples of
the target triple encoded. Experimental results demonstrate that fine-tuning
SCoP not only outperforms results of baselines on a portfolio of downstream
tasks but also avoids tedious task-specific model design and parameter
training.
- Abstract(参考訳): 知識グラフ(KG)の表現学習モデルは、構造情報を符号化し、KGに対する推論を行うのに有効であることが証明されている。
本稿では,知識グラフ表現学習のための学習前微調整フレームワークを提案する。KGモデルをまず三重分類タスクで事前訓練し,続いてエンティティタイプ予測やエンティティアライメントなどの特定の下流タスクを識別微調整する。
一般的な事前学習された言語モデルにおける文脈的表現の深層学習の一般的な考え方に基づき、scopでは、目標のトリプルエンコードの構造的および文脈的トリプルで事前学習されたkg表現を学習する。
実験結果から, 微調整SCoPは下流タスクのポートフォリオにおけるベースラインの結果を上回るだけでなく, 面倒なタスク固有のモデル設計やパラメータトレーニングを回避していることがわかった。
関連論文リスト
- Structure-CLIP: Towards Scene Graph Knowledge to Enhance Multi-modal
Structured Representations [70.41385310930846]
マルチモーダルな構造表現を強化するためのエンドツーエンドフレームワークであるStructure-CLIPを提案する。
シーングラフを用いてセマンティックなネガティブな例の構築をガイドし、その結果、構造化された表現の学習に重点を置いている。
知識エンハンス(KEE)は、SGKを入力として活用し、構造化表現をさらに強化するために提案される。
論文 参考訳(メタデータ) (2023-05-06T03:57:05Z) - Rethinking Visual Prompt Learning as Masked Visual Token Modeling [106.71983630652323]
マスク付き視覚トークンモデリング(VPTM)として視覚プロンプト学習を提案し、下流の視覚分類を事前訓練されたマスク付き視覚トークン予測に変換する。
VPTMは、生成前訓練された視覚モデルにおける最初の視覚的プロンプト法であり、タスク修正による事前学習と下流視覚分類の整合性を実現する。
論文 参考訳(メタデータ) (2023-03-09T02:43:10Z) - Robust Graph Representation Learning via Predictive Coding [46.22695915912123]
予測符号化は、当初脳の情報処理をモデル化するために開発されたメッセージパッシングフレームワークである。
本研究では,予測符号化のメッセージパス規則に依存するモデルを構築する。
提案したモデルは,帰納的タスクと帰納的タスクの両方において,標準的なモデルに匹敵する性能を示す。
論文 参考訳(メタデータ) (2022-12-09T03:58:22Z) - Autoregressive Structured Prediction with Language Models [73.11519625765301]
本稿では, PLM を用いた自己回帰的手法を用いて, モデル構造を行動列として記述する。
我々のアプローチは、私たちが見てきた全ての構造化予測タスクにおいて、新しい最先端を実現する。
論文 参考訳(メタデータ) (2022-10-26T13:27:26Z) - GAP: A Graph-aware Language Model Framework for Knowledge Graph-to-Text
Generation [3.593955557310285]
KG-to-text生成の最近の改善は、微調整タスクの性能を高めるために設計された補助的な事前訓練タスクによるものである。
ここでは、既存の事前学習言語モデルにグラフ認識要素を融合させることで、最先端のモデルより優れ、追加の事前学習タスクによって課されるギャップを埋めることができることを示す。
論文 参考訳(メタデータ) (2022-04-13T23:53:37Z) - DenseCLIP: Language-Guided Dense Prediction with Context-Aware Prompting [91.56988987393483]
本稿では,CLIPから事前学習した知識を暗黙的かつ明示的に活用することで,高密度予測のための新しい枠組みを提案する。
具体的には,CLIPにおける元の画像テキストマッチング問題を画素テキストマッチング問題に変換し,画素テキストスコアマップを用いて高密度予測モデルの学習を指導する。
本手法は,任意の密集予測システムや種々の事前学習された視覚バックボーンに適用可能な,モデルに依存しない手法である。
論文 参考訳(メタデータ) (2021-12-02T18:59:32Z) - SDCUP: Schema Dependency-Enhanced Curriculum Pre-Training for Table
Semantic Parsing [19.779493883522072]
本稿では,テーブル事前学習のための学習表現に所望の帰納バイアスを課すために,2つの新しい事前学習目標を設計する。
本稿では,雑音の影響を緩和し,事前学習データから容易にハードな方法で効果的に学習する,スキーマ対応のカリキュラム学習手法を提案する。
論文 参考訳(メタデータ) (2021-11-18T02:51:04Z) - PPKE: Knowledge Representation Learning by Path-based Pre-training [43.41597219004598]
PPKEと呼ばれる知識埋め込み学習のためのパスベース事前学習モデルを提案する。
本モデルはリンク予測と関係予測タスクのためのいくつかのベンチマークデータセットで最新の結果を得る。
論文 参考訳(メタデータ) (2020-12-07T10:29:30Z) - Inductive Entity Representations from Text via Link Prediction [4.980304226944612]
本稿では,リンク予測目標を用いて学習したエンティティ表現に対する総合評価プロトコルを提案する。
帰納的リンク予測とエンティティ分類タスクについて検討する。
また,エンティティ指向検索のための情報検索タスクについても検討する。
論文 参考訳(メタデータ) (2020-10-07T16:04:06Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z) - Exploiting Structured Knowledge in Text via Graph-Guided Representation
Learning [73.0598186896953]
本稿では、知識グラフからのガイダンスを用いて、生テキスト上で学習する2つの自己教師型タスクを提案する。
エンティティレベルのマスキング言語モデルに基づいて、最初のコントリビューションはエンティティマスキングスキームです。
既存のパラダイムとは対照的に,本手法では事前学習時にのみ,知識グラフを暗黙的に使用する。
論文 参考訳(メタデータ) (2020-04-29T14:22:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。