論文の概要: Type-Less yet Type-Aware Inductive Link Prediction with Pretrained Language Models
- arxiv url: http://arxiv.org/abs/2509.26224v1
- Date: Tue, 30 Sep 2025 13:23:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.549998
- Title: Type-Less yet Type-Aware Inductive Link Prediction with Pretrained Language Models
- Title(参考訳): 事前学習型言語モデルを用いたタイプレスでも型認識型インダクティブリンク予測
- Authors: Alessandro De Bellis, Salvatore Bufi, Giovanni Servedio, Vito Walter Anelli, Tommaso Di Noia, Eugenio Di Sciascio,
- Abstract要約: サブグラフベースの帰納的リンク予測のためのタイプレス型-awaReアプローチであるTyleRを紹介する。
我々は、TyleRが、少ない型アノテーションとスパースグラフ接続を持つシナリオにおいて、最先端のベースラインよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 47.6332883113148
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Inductive link prediction is emerging as a key paradigm for real-world knowledge graphs (KGs), where new entities frequently appear and models must generalize to them without retraining. Predicting links in a KG faces the challenge of guessing previously unseen entities by leveraging generalizable node features such as subgraph structure, type annotations, and ontological constraints. However, explicit type information is often lacking or incomplete. Even when available, type information in most KGs is often coarse-grained, sparse, and prone to errors due to human annotation. In this work, we explore the potential of pre-trained language models (PLMs) to enrich node representations with implicit type signals. We introduce TyleR, a Type-less yet type-awaRe approach for subgraph-based inductive link prediction that leverages PLMs for semantic enrichment. Experiments on standard benchmarks demonstrate that TyleR outperforms state-of-the-art baselines in scenarios with scarce type annotations and sparse graph connectivity. To ensure reproducibility, we share our code at https://github.com/sisinflab/tyler .
- Abstract(参考訳): 帰納的リンク予測は実世界の知識グラフ(KG)の重要なパラダイムとして現れており、新しい実体が頻繁に出現し、モデルが再学習せずにそれらを一般化しなければならない。
KGにおけるリンクの予測は、サブグラフ構造や型アノテーション、存在論的制約といった一般化可能なノード機能を活用することで、これまで見つからなかったエンティティを推測するという課題に直面している。
しかし、明示的な型情報は、しばしば欠落または不完全である。
利用可能な場合でも、ほとんどのKGの型情報は、粗く粒度が粗く、スパースで、人間のアノテーションによってエラーを起こしやすいことが多い。
本研究では、暗黙的な型信号でノード表現を豊かにする事前学習言語モデル(PLM)の可能性を探る。
そこで本研究では,PLMを用いた部分グラフベースの帰納的リンク予測手法であるTyleRを紹介した。
標準ベンチマークの実験では、TyleRは、少ない型アノテーションとスパースグラフ接続のシナリオにおいて、最先端のベースラインを上回っている。
再現性を確保するため、コードをhttps://github.com/sisinflab/tyler で共有しています。
関連論文リスト
- Beyond Message Passing: Neural Graph Pattern Machine [50.78679002846741]
本稿では,グラフサブストラクチャから直接学習することで,メッセージパッシングをバイパスする新しいフレームワークであるNeural Graph Pattern Machine(GPM)を紹介する。
GPMはタスク関連グラフパターンを効率的に抽出し、エンコードし、優先順位付けする。
論文 参考訳(メタデータ) (2025-01-30T20:37:47Z) - Meaning Representations from Trajectories in Autoregressive Models [106.63181745054571]
入力テキストを拡張可能なすべてのトラジェクトリの分布を考慮し,自己回帰言語モデルから意味表現を抽出する。
この戦略はプロンプトフリーであり、微調整は必要とせず、事前訓練された自己回帰モデルにも適用できる。
我々は,大規模なモデルから得られた表現が人間のアノテーションとよく一致し,意味的類似性タスクにおける他のゼロショットおよびプロンプトフリーメソッドよりも優れており,標準埋め込みが扱えないより複雑なエンタテインメントや包含タスクの解決に使用できることを実証的に示す。
論文 参考訳(メタデータ) (2023-10-23T04:35:58Z) - Towards Few-shot Inductive Link Prediction on Knowledge Graphs: A
Relational Anonymous Walk-guided Neural Process Approach [49.00753238429618]
知識グラフ上のインダクティブリンク予測は,少数ショットリンクを観測した未確認エンティティのリンク不足を予測することを目的としている。
近年の帰納的手法は、目に見えない実体を取り巻く部分グラフを用いて意味情報を取得し、リンクを誘導的に予測する。
本稿では,知識グラフ上の数ショットの帰納的リンク予測をRawNPと表記する,新しいリレーショナル匿名型歩行誘導ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-06-26T12:02:32Z) - TypeT5: Seq2seq Type Inference using Static Analysis [51.153089609654174]
本稿では,型予測をコード入力タスクとして扱う新しい型推論手法を提案する。
本手法では静的解析を用いて,型シグネチャがモデルによって予測されるコード要素毎に動的コンテキストを構築する。
また,モデルの入力コンテキストに事前の型予測を組み込んだ反復復号方式を提案する。
論文 参考訳(メタデータ) (2023-03-16T23:48:00Z) - Link Prediction on Latent Heterogeneous Graphs [18.110053023118294]
潜時不均質グラフ(LHG)におけるリンク予測の難解で未探索な問題について検討する。
ノードとパスレベルにおけるセマンティック埋め込みという新しいアイデアに基づいて,LHGNNというモデルを提案し,ノード間の潜在セマンティックスをキャプチャする。
4つのベンチマークデータセットに対して広範な実験を行い、LHGNNの優れた性能を示す。
論文 参考訳(メタデータ) (2023-02-21T04:09:51Z) - Type-aware Embeddings for Multi-Hop Reasoning over Knowledge Graphs [18.56742938427262]
実生活知識グラフ(KG)に対するマルチホップ推論は非常に難しい問題である。
この問題に対処するため、最近、論理的クエリとKGを併用した有望なアプローチを導入している。
本稿では,クエリにおけるエンティティと関係表現を強化する新しいTEMP(TypE-aware Message Passing)モデルを提案する。
論文 参考訳(メタデータ) (2022-05-02T10:05:13Z) - Ultra-fine Entity Typing with Indirect Supervision from Natural Language
Inference [28.78215056129358]
この研究は、エンティティ型付けを自然言語推論(NLI)問題として定式化する新しいアプローチであるLITEを提示する。
実験により、LITEは訓練データに制限があるため、UFETタスクにおける最先端のパフォーマンスが得られることが示された。
論文 参考訳(メタデータ) (2022-02-12T23:56:26Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。