論文の概要: A Condensed Transition Graph Framework for Zero-shot Link Prediction with Large Language Models
- arxiv url: http://arxiv.org/abs/2402.10779v2
- Date: Tue, 26 Nov 2024 13:32:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-27 13:31:58.295862
- Title: A Condensed Transition Graph Framework for Zero-shot Link Prediction with Large Language Models
- Title(参考訳): 大規模言語モデルを用いたゼロショットリンク予測のための凝縮遷移グラフフレームワーク
- Authors: Mingchen Li, Chen Ling, Rui Zhang, Liang Zhao,
- Abstract要約: ゼロショットリンク予測(CTLP)のための凝縮遷移グラフフレームワークを提案する。
CTLPは、すべてのパス情報を線形時間複雑性でエンコードし、エンティティ間の見えない関係を予測する。
提案手法は,3つの標準ZSLPデータセット上での最先端性能を実現する。
- 参考スコア(独自算出の注目度): 20.220781775335645
- License:
- Abstract: Zero-shot link prediction (ZSLP) on knowledge graphs aims at automatically identifying relations between given entities. Existing methods primarily employ auxiliary information to predict tail entity given head entity and its relation, yet face challenges due to the occasional unavailability of such detailed information and the inherent simplicity of predicting tail entities based on semantic similarities. Even though Large Language Models (LLMs) offer a promising solution to predict unobserved relations between the head and tail entity in a zero-shot manner, their performance is still restricted due to the inability to leverage all the (exponentially many) paths' information between two entities, which are critical in collectively indicating their relation types. To address this, in this work, we introduce a Condensed Transition Graph Framework for Zero-Shot Link Prediction (CTLP), which encodes all the paths' information in linear time complexity to predict unseen relations between entities, attaining both efficiency and information preservation. Specifically, we design a condensed transition graph encoder with theoretical guarantees on its coverage, expressiveness, and efficiency. It is learned by a transition graph contrastive learning strategy. Subsequently, we design a soft instruction tuning to learn and map the all-path embedding to the input of LLMs. Experimental results show that our proposed CTLP method achieves state-of-the-art performance on three standard ZSLP datasets
- Abstract(参考訳): 知識グラフ上のゼロショットリンク予測(ZSLP)は、与えられたエンティティ間の関係を自動的に識別することを目的としている。
既存の手法では、主に補助情報を用いて、与えられた主元とその関係を予測するが、そのような詳細情報の時折利用できないことや、意味的類似性に基づいて尾元を予測できることの本質的な単純さにより、課題に直面している。
大言語モデル(LLMs)は、頭と尾のエンティティ間の観測不能な関係をゼロショットで予測する有望なソリューションを提供するが、それらの性能は、2つのエンティティ間のすべての(通常多くの)パスの情報を活用できないために制限されている。
そこで本研究では, ゼロショットリンク予測のための凝縮遷移グラフフレームワーク(CTLP)を導入し, 全経路情報を線形時間複雑性で符号化し, エンティティ間の不明瞭な関係を予測し, 効率と情報保存の両立を図る。
具体的には、そのカバレッジ、表現性、効率性に関する理論的保証を有する縮合遷移グラフエンコーダを設計する。
それは、トランジショングラフの対照的な学習戦略によって学習される。
その後、LLMの入力に埋め込まれた全パスを学習し、マッピングするためのソフトインストラクションチューニングを設計する。
実験結果から,CTLP法は3つの標準ZSLPデータセットの最先端性能を実現することが示された。
関連論文リスト
- S^2Former-OR: Single-Stage Bi-Modal Transformer for Scene Graph Generation in OR [50.435592120607815]
外科手術のシーングラフ生成(SGG)は、手術室(OR)におけるホモロジー認知知能の増強に不可欠である
これまでの研究は主に多段階学習に依存しており、生成したセマンティックシーングラフはポーズ推定とオブジェクト検出を伴う中間プロセスに依存している。
本研究では,S2Former-OR(S2Former-OR)と呼ばれるORにおけるSGGのための新しいシングルステージバイモーダルトランスフォーマフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-22T11:40:49Z) - Universal Link Predictor By In-Context Learning on Graphs [27.394215950768643]
パラメトリックモデルのパターン学習能力とアプローチの一般化性を組み合わせた新しいモデルであるユニバーサルリンク予測器(UniLP)を導入する。
UniLPは、さまざまなグラフをまたいだ接続パターンを自律的に識別するように設計されている。
論文 参考訳(メタデータ) (2024-02-12T15:52:27Z) - RLIPv2: Fast Scaling of Relational Language-Image Pre-training [53.21796397618875]
本稿では,大規模な擬似ラベル付きシーングラフデータに対する事前学習のリレーショナルスケーリングを可能にする高速収束モデルRLIPv2を提案する。
非対称言語画像融合 (ALIF) は、より早く、より深く分岐したクロスモーダル融合と、スパシファイド言語による符号化を容易にする。
RLIPv2は、3つのベンチマークで、完全な微調整、少数ショット、ゼロショット設定で、最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-08-18T07:17:09Z) - Normalizing Flow-based Neural Process for Few-Shot Knowledge Graph
Completion [69.55700751102376]
FKGC (Few-shot Knowledge Graph completion) は、失明した事実を、無意味な関連のある事実で予測することを目的としている。
既存のFKGC手法はメートル法学習やメタラーニングに基づいており、しばしば分布外や過度に適合する問題に悩まされる。
本稿では,数ショット知識グラフ補完(NP-FKGC)のためのフローベースニューラルプロセスの正規化を提案する。
論文 参考訳(メタデータ) (2023-04-17T11:42:28Z) - Joint embedding in Hierarchical distance and semantic representation
learning for link prediction [4.18621837986466]
本稿では,リンク予測タスク,すなわちHIEのための新しい知識グラフ埋め込みモデルを提案する。
HIEは各三重項(テキスト、テキスト、テキスト)を同時に距離測定空間と意味測定空間にモデル化する。
HIEは階層的な空間に導入され、より優れた表現学習のためにエンティティと関係の豊富な階層情報を活用する。
論文 参考訳(メタデータ) (2023-03-28T00:42:29Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - SMiLE: Schema-augmented Multi-level Contrastive Learning for Knowledge
Graph Link Prediction [28.87290783250351]
リンク予測は、知識グラフにおけるエンティティ間の欠落したリンクを推測するタスクである。
本稿では,知識グラフリンク予測を行うための新しいマルチレベルコントラスト学習フレームワーク(SMiLE)を提案する。
論文 参考訳(メタデータ) (2022-10-10T17:40:19Z) - ConstGCN: Constrained Transmission-based Graph Convolutional Networks
for Document-level Relation Extraction [24.970508961370548]
グラフニューラルネットワークによる文書レベルの関係抽出は、トレーニングと推論の基本的なグラフ構築ギャップに直面している。
本稿では,知識に基づく情報伝達を行う新しいグラフ畳み込みネットワークである$textbfConstGCN$を提案する。
実験の結果,本手法はDocREデータセットに対する従来のSOTA(State-of-the-art)アプローチよりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-10-08T07:36:04Z) - TranS: Transition-based Knowledge Graph Embedding with Synthetic
Relation Representation [14.759663752868487]
本稿では,知識グラフ埋め込みのためのトランジションベースの新しい手法TranSを提案する。
従来のスコアリングパターンの単一関係ベクトルを合成関係表現に置き換えることで、これらの問題を効果的かつ効率的に解決することができる。
大規模知識グラフデータセット ogbl-wikikg2 の実験は、我々のモデルが最先端の結果を達成することを示す。
論文 参考訳(メタデータ) (2022-04-18T16:55:25Z) - R-VGAE: Relational-variational Graph Autoencoder for Unsupervised
Prerequisite Chain Learning [83.13634692459486]
本稿では,概念リソースノードからなるグラフ内の概念関係を予測するために,グラフオートエンコーダ(VGA-E)と呼ばれるモデルを提案する。
その結果, 教師なし手法は, グラフベースの半教師付き手法やベースライン法よりも9.77%, 10.47%, 前提条件関係予測精度とF1スコアに優れていた。
提案手法は,教師なし事前学習のタスクに深層学習表現を適用しようとする最初のグラフベースモデルである。
論文 参考訳(メタデータ) (2020-04-22T14:48:03Z) - Graph Representation Learning via Graphical Mutual Information
Maximization [86.32278001019854]
本稿では,入力グラフとハイレベルな隠蔽表現との相関を測る新しい概念であるGMIを提案する。
我々は,グラフニューラルエンコーダの入力と出力の間でGMIを最大化することで訓練された教師なし学習モデルを開発する。
論文 参考訳(メタデータ) (2020-02-04T08:33:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。