論文の概要: GPTKB v1.5: A Massive Knowledge Base for Exploring Factual LLM Knowledge
- arxiv url: http://arxiv.org/abs/2507.05740v1
- Date: Tue, 08 Jul 2025 07:37:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:37.730825
- Title: GPTKB v1.5: A Massive Knowledge Base for Exploring Factual LLM Knowledge
- Title(参考訳): GPTKB v1.5: Factual LLM知識を探索するための膨大な知識基盤
- Authors: Yujia Hu, Tuan-Phong Nguyen, Shrestha Ghosh, Moritz Müller, Simon Razniewski,
- Abstract要約: GPTKB v1.5は、GPT-4.1から14,000ドルで製造された100万トリプルの知識ベース(KB)である。
- 参考スコア(独自算出の注目度): 14.588326960523844
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Language models are powerful tools, yet their factual knowledge is still poorly understood, and inaccessible to ad-hoc browsing and scalable statistical analysis. This demonstration introduces GPTKB v1.5, a densely interlinked 100-million-triple knowledge base (KB) built for $14,000 from GPT-4.1, using the GPTKB methodology for massive-recursive LLM knowledge materialization (Hu et al., ACL 2025). The demonstration experience focuses on three use cases: (1) link-traversal-based LLM knowledge exploration, (2) SPARQL-based structured LLM knowledge querying, (3) comparative exploration of the strengths and weaknesses of LLM knowledge. Massive-recursive LLM knowledge materialization is a groundbreaking opportunity both for the research area of systematic analysis of LLM knowledge, as well as for automated KB construction. The GPTKB demonstrator is accessible at https://gptkb.org.
- Abstract(参考訳): 言語モデルは強力なツールであるが、実際の知識はまだ理解されておらず、アドホックなブラウジングやスケーラブルな統計分析にはアクセスできない。
GPTKB v1.5は、GPT-4.1から14,000ドルで構築された100万トリプルの知識ベース(KB)で、大規模再帰的なLSM知識の実体化のためのGPTKB方法論(Hu et al , ACL 2025)が導入された。
実演体験は,(1)リンクトラバーサルに基づくLLM知識探索,(2)SPARQLに基づく構造化LLM知識クエリ,(3)LLM知識の強みと弱みの比較3つのユースケースに焦点を当てた。
大規模再帰的LLM知識の実体化は、LLM知識の体系的分析の研究領域と、KBの自動構築の両方において、画期的な機会である。
GPTKBデモンストレーターはhttps://gptkb.org.comでアクセスできる。
関連論文リスト
- LightPROF: A Lightweight Reasoning Framework for Large Language Model on Knowledge Graph [57.382255728234064]
大きな言語モデル(LLM)は、テキスト理解とゼロショット推論において素晴らしい能力を持っている。
知識グラフ(KG)は、LLMの推論プロセスに対して、リッチで信頼性の高いコンテキスト情報を提供する。
我々は、KGQA(LightPROF)のための新しい軽量で効率的なPrompt Learning-ReasOning Frameworkを提案する。
論文 参考訳(メタデータ) (2025-04-04T03:03:47Z) - Enabling LLM Knowledge Analysis via Extensive Materialization [15.276041443299905]
GPTKBは、GPT-4o-miniという290万以上のエンティティに対して101万トリプルの知識ベースである。
我々は、GPTKBを用いて、GPT-4o-miniの事実知識を、スケール、精度、バイアス、一貫性の観点から内部的に分析する。
論文 参考訳(メタデータ) (2024-11-07T17:57:03Z) - GIVE: Structured Reasoning of Large Language Models with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを融合して、最小の外部入力で正確な推論を改善する新しい推論手法である。
GIVE は LLM エージェントをガイドして,最も関連する専門家データ (observe) を選択し,クエリ固有の発散思考 (reflect) に従事し,その情報を合成して最終的な出力 (speak) を生成する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - LUK: Empowering Log Understanding with Expert Knowledge from Large Language Models [32.65636568742875]
小言語モデル (PLM) と大言語モデル (LLM) は、ログ分析における現在の主流のアプローチとなっている。
本稿では,LLMから専門知識を自動取得するLUKと呼ばれる新しい知識向上フレームワークを導入し,これらの知識を用いてログ解析を行うため,より小さなPLMを向上する。
LUKは、異なるログ分析タスクに関する最先端の結果を達成し、LLMからのエキスパート知識をより効果的に利用してログを理解するための広範な実験を行った。
論文 参考訳(メタデータ) (2024-09-03T13:58:34Z) - How Reliable are LLMs as Knowledge Bases? Re-thinking Facutality and Consistency [60.25969380388974]
大規模言語モデル (LLM) は知識ベース (KB) として研究されている。
現在の評価手法は、信頼性の高い性能の他の決定的な基準を見越して、知識の保持に過度に焦点を絞っている。
我々は,事実と一貫性を定量化するための新しい基準と指標を提案し,最終的な信頼性スコアを導いた。
論文 参考訳(メタデータ) (2024-07-18T15:20:18Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - Fine-Grained Stateful Knowledge Exploration: A Novel Paradigm for Integrating Knowledge Graphs with Large Language Models [19.049828741139425]
大きな言語モデル(LLM)は印象的な能力を示していますが、その知識を更新することは大きな課題です。
既存のほとんどのメソッドは、質問を目的として扱うパラダイムを使用し、関連する知識は知識グラフから漸進的に取得される。
本稿では,情報粒度ミスマッチ問題に対処する,微粒なステートフル知識探索のための新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2024-01-24T13:36:50Z) - Augmented Large Language Models with Parametric Knowledge Guiding [72.71468058502228]
大規模言語モデル(LLM)は、言語理解と生成能力に優れた自然言語処理(NLP)を備えています。
それらのパフォーマンスは、関連するデータへの限られた露出のために専門的な知識を必要とするドメイン固有のタスクに最適であるかもしれない。
本稿では,LLMに関連知識にアクセスするための知識誘導モジュールを組み込んだ新しいPKGフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-08T15:05:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。