論文の概要: HyperG: Hypergraph-Enhanced LLMs for Structured Knowledge
- arxiv url: http://arxiv.org/abs/2502.18125v1
- Date: Tue, 25 Feb 2025 11:47:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 15:19:12.449596
- Title: HyperG: Hypergraph-Enhanced LLMs for Structured Knowledge
- Title(参考訳): HyperG: 構造化知識のためのハイパーグラフ強化LDM
- Authors: Sirui Huang, Hanqian Li, Yanggan Gu, Xuming Hu, Qing Li, Guandong Xu,
- Abstract要約: HyperGはハイパーグラフベースの生成フレームワークで、構造化知識を処理する大規模言語モデルの能力を高めることを目的としている。
具体的には、HyperGはまず、スパースデータを文脈情報で拡張し、データ内の拡張情報と複雑な構造的関係の両方をエンコードするために、プロンプト付きハイパーグラフ学習ネットワークを組み込む。
HyperGの有効性と一般化を検証するために、構造化知識を必要とする2つの下流タスクにまたがる広範な実験を行った。
- 参考スコア(独自算出の注目度): 25.279158571663036
- License:
- Abstract: Given that substantial amounts of domain-specific knowledge are stored in structured formats, such as web data organized through HTML, Large Language Models (LLMs) are expected to fully comprehend this structured information to broaden their applications in various real-world downstream tasks. Current approaches for applying LLMs to structured data fall into two main categories: serialization-based and operation-based methods. Both approaches, whether relying on serialization or using SQL-like operations as an intermediary, encounter difficulties in fully capturing structural relationships and effectively handling sparse data. To address these unique characteristics of structured data, we propose HyperG, a hypergraph-based generation framework aimed at enhancing LLMs' ability to process structured knowledge. Specifically, HyperG first augment sparse data with contextual information, leveraging the generative power of LLMs, and incorporate a prompt-attentive hypergraph learning (PHL) network to encode both the augmented information and the intricate structural relationships within the data. To validate the effectiveness and generalization of HyperG, we conduct extensive experiments across two different downstream tasks requiring structured knowledge.
- Abstract(参考訳): ドメイン固有の知識がHTMLで整理されたWebデータなどの構造化形式で保存されていることを考慮すれば、Large Language Models (LLM) はこの構造化情報を完全に理解し、様々な現実世界の下流タスクでアプリケーションを拡張することが期待されている。
LLMを構造化データに適用するための現在のアプローチは、シリアライズベースとオペレーションベースという2つの主要なカテゴリに分類される。
シリアライズやSQLライクな操作を仲介として使用するいずれのアプローチも、構造的関係を完全に把握し、スパースデータを効果的に扱うのに困難に直面する。
構造化データの特徴に対処するため,構造化知識の処理能力の向上を目的としたハイパーグラフベースの生成フレームワークHyperGを提案する。
特に、HyperGは、まず、文脈情報を用いてスパースデータを増強し、LLMの生成力を活用し、データ内の拡張情報と複雑な構造関係の両方をエンコードするために、PHLネットワークを組み込む。
HyperGの有効性と一般化を検証するために、構造化知識を必要とする2つの下流タスクにまたがる広範な実験を行った。
関連論文リスト
- $\texttt{InfoHier}$: Hierarchical Information Extraction via Encoding and Embedding [0.7499722271664147]
$texttInfoHier$は、堅牢な潜在表現と階層構造を学ぶためのフレームワークである。
適応的な表現を提供し、HCの複雑なパターンをキャプチャする能力を高める。
HCロスを統合してSSLトレーニングを洗練し、基盤となる情報階層に調整された表現をもたらす。
論文 参考訳(メタデータ) (2025-01-15T10:58:32Z) - Knowledge prompt chaining for semantic modeling [0.0]
本稿では,新しいセマンティック・モデリング・フレームワーク,ナレッジ・プロンプト・チェインを提案する。
グラフ構造化された知識をシリアライズし、LSMに適切に注入することができる。
実験結果に基づいて,本手法は既存の先行技術よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2025-01-15T03:00:57Z) - Filter-then-Generate: Large Language Models with Structure-Text Adapter for Knowledge Graph Completion [20.973071287301067]
大規模言語モデル(LLM)は、膨大な固有の知識と優れた意味理解能力を示す。
実証的な証拠は、LLMは従来の知識グラフ補完手法よりも一貫して性能が悪いことを示唆している。
そこで本研究では,これらの課題に対処するために,FtGという命令チューニングに基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-12-12T09:22:04Z) - LLaSA: Large Language and Structured Data Assistant [27.452536284165273]
グラフニュートラルネットワーク (GNN) は、Large Language Models (LLM) の入力に付加的なモダリティとして導入された。
構造化データの処理能力を高めるために, textbfLarge textbfLanguage と textbfStructured Data textbfAssistant (LLaSA) を提案する。
論文 参考訳(メタデータ) (2024-11-16T12:27:14Z) - Web-Scale Visual Entity Recognition: An LLM-Driven Data Approach [56.55633052479446]
Webスケールのビジュアルエンティティ認識は、クリーンで大規模なトレーニングデータがないため、重大な課題を呈している。
本稿では,ラベル検証,メタデータ生成,合理性説明に多モーダル大言語モデル(LLM)を活用することによって,そのようなデータセットをキュレートする新しい手法を提案する。
実験により、この自動キュレートされたデータに基づいてトレーニングされたモデルは、Webスケールの視覚的エンティティ認識タスクで最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2024-10-31T06:55:24Z) - StructRAG: Boosting Knowledge Intensive Reasoning of LLMs via Inference-time Hybrid Information Structurization [94.31508613367296]
Retrieval-augmented Generation(RAG)は、大規模言語モデル(LLM)を効果的に強化する鍵となる手段である。
本稿では,手前のタスクに対して最適な構造型を識別し,元の文書をこの構造化形式に再構成し,その結果に基づいて回答を推測するStructRAGを提案する。
実験の結果、StructRAGは最先端のパフォーマンスを実現し、特に挑戦的なシナリオに優れていた。
論文 参考訳(メタデータ) (2024-10-11T13:52:44Z) - Struct-X: Enhancing Large Language Models Reasoning with Structured Data [38.558614152006975]
構造Xは5つの重要なフェーズを通して動作する:read-model-fill-reflect-reason'
構造化データをグラフ埋め込みを用いて位相空間にエンコードする。
行方不明のエンティティ情報を知識検索モジュールで埋める。
最後のフェーズでは、選択したトークンでトポロジネットワークを構築する。
論文 参考訳(メタデータ) (2024-07-17T13:06:25Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z) - StructGPT: A General Framework for Large Language Model to Reason over
Structured Data [117.13986738340027]
我々は,構造化データに基づく質問応答タスクの解法として,emphIterative Reading-then-Reasoning(IRR)アプローチを開発した。
提案手法はChatGPTの性能を大幅に向上させ,全データの教師付きベースラインに対して同等のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-05-16T17:45:23Z) - LasUIE: Unifying Information Extraction with Latent Adaptive
Structure-aware Generative Language Model [96.889634747943]
全ての典型的な情報抽出タスク(UIE)を1つの生成言語モデル(GLM)で普遍的にモデル化し、大きな可能性を明らかにした。
UIE のための構文知識のパワーを完全に解放する構造対応 GLM を提案する。
7つのタスクにわたるIEベンチマークが12以上あり、私たちのシステムはベースラインのUIEシステムよりも大幅に改善されていることを示しています。
論文 参考訳(メタデータ) (2023-04-13T04:01:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。