論文の概要: Iterative Zero-Shot LLM Prompting for Knowledge Graph Construction
- arxiv url: http://arxiv.org/abs/2307.01128v1
- Date: Mon, 3 Jul 2023 16:01:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-05 12:20:12.524145
- Title: Iterative Zero-Shot LLM Prompting for Knowledge Graph Construction
- Title(参考訳): 知識グラフ構築のための反復ゼロショットLDMプロンプト
- Authors: Salvatore Carta, Alessandro Giuliani, Leonardo Piano, Alessandro
Sebastian Podda, Livio Pompianu, Sandro Gabriele Tiddia
- Abstract要約: 本稿では,最新の生成型大規模言語モデルの可能性を活用する,革新的な知識グラフ生成手法を提案する。
このアプローチは、新しい反復的なゼロショットと外部知識に依存しない戦略を含むパイプラインで伝達される。
我々は、我々の提案がスケーラブルで多目的な知識グラフ構築に適したソリューションであり、異なる新しい文脈に適用できると主張している。
- 参考スコア(独自算出の注目度): 104.29108668347727
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the current digitalization era, capturing and effectively representing
knowledge is crucial in most real-world scenarios. In this context, knowledge
graphs represent a potent tool for retrieving and organizing a vast amount of
information in a properly interconnected and interpretable structure. However,
their generation is still challenging and often requires considerable human
effort and domain expertise, hampering the scalability and flexibility across
different application fields. This paper proposes an innovative knowledge graph
generation approach that leverages the potential of the latest generative large
language models, such as GPT-3.5, that can address all the main critical issues
in knowledge graph building. The approach is conveyed in a pipeline that
comprises novel iterative zero-shot and external knowledge-agnostic strategies
in the main stages of the generation process. Our unique manifold approach may
encompass significant benefits to the scientific community. In particular, the
main contribution can be summarized by: (i) an innovative strategy for
iteratively prompting large language models to extract relevant components of
the final graph; (ii) a zero-shot strategy for each prompt, meaning that there
is no need for providing examples for "guiding" the prompt result; (iii) a
scalable solution, as the adoption of LLMs avoids the need for any external
resources or human expertise. To assess the effectiveness of our proposed
model, we performed experiments on a dataset that covered a specific domain. We
claim that our proposal is a suitable solution for scalable and versatile
knowledge graph construction and may be applied to different and novel
contexts.
- Abstract(参考訳): 現在のデジタル化時代において、知識を収集し、効果的に表現することは、ほとんどの現実世界のシナリオにおいて不可欠である。
この文脈では、知識グラフは、適切に相互接続され解釈可能な構造において、膨大な量の情報を検索し整理するための強力なツールである。
しかし、それらの世代は依然として困難であり、しばしば人的努力とドメインの専門知識を必要とし、異なるアプリケーション分野にわたるスケーラビリティと柔軟性を妨げる。
本稿では,知識グラフ構築における主要な課題に対処可能な,GPT-3.5のような最新の生成型大規模言語モデルの可能性を活用する,革新的な知識グラフ生成手法を提案する。
このアプローチは、生成プロセスの主要な段階で、新しい反復的なゼロショットと外部知識に依存しない戦略を含むパイプラインで伝達される。
我々の独特な多様体的アプローチは、科学界に大きな利益をもたらすかもしれない。
特に、主な貢献は次のようにまとめることができる。
i) 最終グラフの関連成分を抽出するために,大規模言語モデルを反復的に促すイノベーティブな戦略
(二)各プロンプトに対するゼロショット戦略、すなわち、プロンプト結果を「導く」ための例を提供する必要がないこと。
(iii)llmの採用は外部のリソースや人材の専門知識を必要としないため、スケーラブルなソリューションである。
提案モデルの有効性を評価するため,特定の領域をカバーするデータセットを用いて実験を行った。
この提案はスケーラブルで汎用的な知識グラフ構築に適したソリューションであり、異なる文脈や新しい文脈に適用できると主張している。
関連論文リスト
- Towards Graph Prompt Learning: A Survey and Beyond [38.55555996765227]
大規模"事前訓練と迅速な学習"パラダイムは、顕著な適応性を示している。
この調査は、この分野における100以上の関連する研究を分類し、一般的な設計原則と最新の応用を要約する。
論文 参考訳(メタデータ) (2024-08-26T06:36:42Z) - All in One and One for All: A Simple yet Effective Method towards Cross-domain Graph Pretraining [18.955565096212183]
大規模言語モデル (LLM) はコンピュータビジョン (CV) と自然言語処理 (NLP) の分野に革命をもたらした。
LLMの最も注目すべき進歩の1つは、単一のモデルが複数のドメインにまたがる広範囲で多様なデータセットでトレーニングされていることである。
論文 参考訳(メタデータ) (2024-02-15T09:55:39Z) - GLaM: Fine-Tuning Large Language Models for Domain Knowledge Graph Alignment via Neighborhood Partitioning and Generative Subgraph Encoding [39.67113788660731]
グラフ対応LAnguage Models (GLaM) を開発するためのフレームワークを紹介する。
特定のグラフに基づく知識でモデルを構築することは、構造に基づく推論のためのモデルの能力を拡張することを実証する。
論文 参考訳(メタデータ) (2024-02-09T19:53:29Z) - Exploring Large Language Model for Graph Data Understanding in Online
Job Recommendations [63.19448893196642]
本稿では,大規模言語モデルが提供するリッチな文脈情報と意味表現を利用して行動グラフを解析する新しいフレームワークを提案する。
この機能を利用することで、個々のユーザに対してパーソナライズされた、正確なジョブレコメンデーションが可能になる。
論文 参考訳(メタデータ) (2023-07-10T11:29:41Z) - Exploring In-Context Learning Capabilities of Foundation Models for
Generating Knowledge Graphs from Text [3.114960935006655]
本論文は,知識グラフの自動構築と完成の技術をテキストから改善することを目的としている。
この文脈では、新しいパラダイムの1つは、言語モデルがプロンプトとともにそのまま使われる、コンテキスト内学習である。
論文 参考訳(メタデータ) (2023-05-15T17:10:19Z) - Schema-aware Reference as Prompt Improves Data-Efficient Knowledge Graph
Construction [57.854498238624366]
本稿では,データ効率のよい知識グラフ構築のためのRAP(Schema-Aware Reference As Prompt)の検索手法を提案する。
RAPは、人間の注釈付きおよび弱教師付きデータから受け継いだスキーマと知識を、各サンプルのプロンプトとして動的に活用することができる。
論文 参考訳(メタデータ) (2022-10-19T16:40:28Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z) - Knowledge Graph Augmented Network Towards Multiview Representation
Learning for Aspect-based Sentiment Analysis [96.53859361560505]
本稿では,知識グラフ拡張ネットワーク(KGAN)を提案する。
KGANは感情の特徴表現を、文脈、構文、知識に基づく複数の視点から捉えている。
3つの人気のあるABSAベンチマークの実験は、我々のKGANの有効性と堅牢性を示している。
論文 参考訳(メタデータ) (2022-01-13T08:25:53Z) - ENT-DESC: Entity Description Generation by Exploring Knowledge Graph [53.03778194567752]
実際には、出力記述が最も重要な知識のみをカバーするため、入力知識は十分以上である可能性がある。
我々は、KG-to-textにおけるこのような実践的なシナリオの研究を容易にするために、大規模で挑戦的なデータセットを導入する。
本稿では,元のグラフ情報をより包括的に表現できるマルチグラフ構造を提案する。
論文 参考訳(メタデータ) (2020-04-30T14:16:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。