論文の概要: From Symbolic to Natural-Language Relations: Rethinking Knowledge Graph Construction in the Era of Large Language Models
- arxiv url: http://arxiv.org/abs/2601.09069v1
- Date: Wed, 14 Jan 2026 01:49:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.217299
- Title: From Symbolic to Natural-Language Relations: Rethinking Knowledge Graph Construction in the Era of Large Language Models
- Title(参考訳): 記号から自然言語へ:大規模言語モデルにおける知識グラフ構築の再考
- Authors: Kanyao Han, Yushang Lai,
- Abstract要約: シンボリックな関係記述から自然言語的な関係記述への移行を提唱する。
最小限の構造的バックボーンを維持しつつ,より柔軟でコンテキストに敏感な表現を可能にするハイブリッド設計原則を提案する。
- 参考スコア(独自算出の注目度): 0.4010598744735379
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge graphs (KGs) have commonly been constructed using predefined symbolic relation schemas, typically implemented as categorical relation labels. This design has notable shortcomings: real-world relations are often contextual, nuanced, and sometimes uncertain, and compressing it into discrete relation labels abstracts away critical semantic detail. Nevertheless, symbolic-relation KGs remain widely used because they have been operationally effective and broadly compatible with pre-LLM downstream models and algorithms, in which KG knowledge could be retrieved or encoded into quantified features and embeddings at scale. The emergence of LLMs has reshaped how knowledge is created and consumed. LLMs support scalable synthesis of domain facts directly in concise natural language, and prompting-based inference favors context-rich free-form text over quantified representations. This position paper argues that these changes call for rethinking the representation of relations themselves rather than merely using LLMs to populate conventional schemas more efficiently. We therefore advocate moving from symbolic to natural-language relation descriptions, and we propose hybrid design principles that preserve a minimal structural backbone while enabling more flexible and context-sensitive relational representations.
- Abstract(参考訳): 知識グラフ(KG)は、一般的に、定義済みの記号関係スキーマを使用して構築され、典型的には分類関係ラベルとして実装されている。
この設計には顕著な欠点がある: 実世界の関係はしばしば文脈的、ニュアンス的、時には不確実であり、それを離散的な関係ラベルに圧縮することで、重要な意味的詳細を抽象化する。
それでも、KGの知識を量子化された特徴や大規模な埋め込みに検索したりエンコードしたりできるLLM以前のダウンストリームモデルやアルゴリズムと運用的に効果的で広範囲に互換性があるため、シンボリック・リレーションKGは依然として広く使われている。
LLMの出現は、知識の作成と消費の仕方を変えました。
LLMは、簡潔な自然言語で直接ドメイン事実のスケーラブルな合成をサポートし、プロンプトベースの推論は、定量化された表現よりも文脈に富んだ自由形式のテキストを好む。
このポジションペーパーでは、これらの変更は従来のスキーマをより効率的にするために単にLLMを使うのではなく、関係の表現自体を再考することを要求している。
そこで我々は,より柔軟で文脈に敏感な関係表現を実現するとともに,最小の構造的バックボーンを保持するハイブリッド設計原則を提案する。
関連論文リスト
- Improving LLM Reasoning with Homophily-aware Structural and Semantic Text-Attributed Graph Compression [55.51959317490934]
大規模言語モデル(LLM)は、テキスト分散グラフ(TAG)理解において有望な能力を示している。
グラフは本来、構造情報や意味情報を豊富に含むものであり、それらの有効利用はLLMの推論性能の潜在的な利益を解放する可能性があると論じる。
グラフホモフィリーの活用を目的としたフレームワーク LLMs (HS2C) のホモフィリー対応構造とセマンティック圧縮を提案する。
論文 参考訳(メタデータ) (2026-01-13T03:35:18Z) - LGM: Enhancing Large Language Models with Conceptual Meta-Relations and Iterative Retrieval [6.676760153583501]
大規模言語モデル(LLM)は、強い意味的理解を示すが、ユーザ命令が曖昧あるいは概念的に不一致な用語を伴う場合、苦労する。
メタ関係の継承,エイリアス,合成を自然言語から抽出することにより,概念的明瞭度を高める言語グラフモデル(LGM)を提案する。
論文 参考訳(メタデータ) (2025-11-05T06:04:38Z) - ReaLM: Residual Quantization Bridging Knowledge Graph Embeddings and Large Language Models [18.720486146234077]
大言語モデル(LLM)は知識グラフ補完(KGC)の強力なパラダイムとして登場した。
我々は、KG埋め込みとLLMトークン化のギャップを埋める、新しく効果的なフレームワークであるReaLMを提案する。
本稿では,ReaLMが最先端性能を実現し,構造化知識と大規模言語モデルとの整合性を確認した。
論文 参考訳(メタデータ) (2025-10-10T04:36:13Z) - Data Dependency-Aware Code Generation from Enhanced UML Sequence Diagrams [54.528185120850274]
本稿では,API2Depという新しいステップバイステップコード生成フレームワークを提案する。
まず、サービス指向アーキテクチャに適した拡張Unified Modeling Language (UML) APIダイアグラムを紹介します。
次に、データフローの重要な役割を認識し、専用のデータ依存推論タスクを導入する。
論文 参考訳(メタデータ) (2025-08-05T12:28:23Z) - Large Language Models are Good Relational Learners [55.40941576497973]
本稿では,グラフニューラルネットワーク(GNN)に基づくエンコーダを用いて,大規模言語モデル(LLM)のための構造化リレーショナルプロンプトを生成する新しいアーキテクチャであるRel-LLMを紹介する。
従来のテキストベースのシリアライズ手法とは異なり,本手法はデータベース固有の関係構造を保ちながら,LLMが複雑なエンティティ関係を処理・推論することを可能にする。
論文 参考訳(メタデータ) (2025-06-06T04:07:55Z) - KG-BiLM: Knowledge Graph Embedding via Bidirectional Language Models [16.2387767061355]
KG-BiLMは、KGの構造的手がかりを生成変換器の意味表現性と融合させる双方向のLMフレームワークである。
KG-BiLMには3つの重要な要素がある: (i) 双方向知識注意; すべてのトークンとエンティティ間の完全な相互作用を可能にするために因果マスクを除去する; (ii) 局所的な意味的コンテキストとグローバルなグラフ接続の両方を活用することを奨励するナレッジ・マスク予測; (iii) コントラストグラフセマンティック・アグリゲーション — サンプル化されたサブグラフ表現のコントラストアライメントを通じてKG構造を保存する。
論文 参考訳(メタデータ) (2025-06-04T04:47:24Z) - Prompt-based Logical Semantics Enhancement for Implicit Discourse
Relation Recognition [4.7938839332508945]
Inlicit Discourse Relation Recognition (IDRR) のための Prompt-based Logical Semantics Enhancement (PLSE) 法を提案する。
提案手法は,事前学習した言語モデルに対する対話関係に関する知識を,素早い接続予測によってシームレスに注入する。
PDTB 2.0 と CoNLL16 データセットによる実験結果から,本手法は現状の最先端モデルに対して優れた一貫した性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-11-01T08:38:08Z) - Linearity of Relation Decoding in Transformer Language Models [82.47019600662874]
トランスフォーマー言語モデル(LM)で符号化された知識の多くは、関係性の観点から表現することができる。
関係のサブセットに対して、この計算は対象表現上の1つの線形変換によってよく近似されることを示す。
論文 参考訳(メタデータ) (2023-08-17T17:59:19Z) - Modeling Content and Context with Deep Relational Learning [31.854529627213275]
DRaiLは、ディープリレーショナルモデルを特定するためのオープンソースの宣言型フレームワークである。
我々のフレームワークは、表現型言語エンコーダとの容易な統合をサポートし、表現、推論、学習間の相互作用を研究するためのインターフェースを提供する。
論文 参考訳(メタデータ) (2020-10-20T17:09:35Z) - Generative Adversarial Zero-Shot Relational Learning for Knowledge
Graphs [96.73259297063619]
我々は、この厄介なキュレーションを解放するために、新しい定式化、ゼロショット学習を考える。
新たに追加された関係について,テキスト記述から意味的特徴を学習しようと試みる。
我々は,GAN(Generative Adrial Networks)を活用し,テキストと知識グラフ領域の接続を確立する。
論文 参考訳(メタデータ) (2020-01-08T01:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。