論文の概要: KORAL: Knowledge Graph Guided LLM Reasoning for SSD Operational Analysis
- arxiv url: http://arxiv.org/abs/2602.10246v1
- Date: Tue, 10 Feb 2026 19:40:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.258208
- Title: KORAL: Knowledge Graph Guided LLM Reasoning for SSD Operational Analysis
- Title(参考訳): KORAL: SSD操作解析のための知識グラフガイドLDM推論
- Authors: Mayur Akewar, Sandeep Madireddy, Dongsheng Luo, Janki Bhimani,
- Abstract要約: Solid State Drives(SSD)は、データセンタ、コンシューマプラットフォーム、ミッションクリティカルなシステムに不可欠である。
既存の方法は、限られた洞察のみを提供しながら、大規模なデータセットとエキスパートインプットを要求する。
構造化知識グラフ(KG)とLarge Language Models(LLM)を統合した知識駆動推論フレームワークKORALを提案する。
生成したSSD固有のKGを公開し、知識ベースストレージシステム分析における再現可能な研究を進める。
- 参考スコア(独自算出の注目度): 10.530082170806146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Solid State Drives (SSDs) are critical to datacenters, consumer platforms, and mission-critical systems. Yet diagnosing their performance and reliability is difficult because data are fragmented and time-disjoint, and existing methods demand large datasets and expert input while offering only limited insights. Degradation arises not only from shifting workloads and evolving architectures but also from environmental factors such as temperature, humidity, and vibration. We present KORAL, a knowledge driven reasoning framework that integrates Large Language Models (LLMs) with a structured Knowledge Graph (KG) to generate insights into SSD operations. Unlike traditional approaches that require extensive expert input and large datasets, KORAL generates a Data KG from fragmented telemetry and integrates a Literature KG that already organizes knowledge from literature, reports, and traces. This turns unstructured sources into a queryable graph and telemetry into structured knowledge, and both the Graphs guide the LLM to deliver evidence-based, explainable analysis aligned with the domain vocabulary and constraints. Evaluation using real production traces shows that the KORAL delivers expert-level diagnosis and recommendations, supported by grounded explanations that improve reasoning transparency, guide operator decisions, reduce manual effort, and provide actionable insights to improve service quality. To our knowledge, this is the first end-to-end system that combines LLMs and KGs for full-spectrum SSD reasoning including Descriptive, Predictive, Prescriptive, and What-if analysis. We release the generated SSD-specific KG to advance reproducible research in knowledge-based storage system analysis. GitHub Repository: https://github.com/Damrl-lab/KORAL
- Abstract(参考訳): Solid State Drives(SSD)は、データセンタ、コンシューマプラットフォーム、ミッションクリティカルなシステムに不可欠である。
しかし、データの断片化とタイムディスジョイントのため、パフォーマンスと信頼性の診断は困難であり、既存の手法では、限られた洞察のみを提供しながら、大規模なデータセットとエキスパートインプットを必要としている。
劣化はワークロードのシフトやアーキテクチャの進化だけでなく、温度、湿度、振動といった環境要因からも生じます。
我々は,Large Language Models (LLM) と構造化知識グラフ (KG) を統合し,SSD操作に関する洞察を生成する知識駆動推論フレームワーク KORAL を提案する。
広範な専門家の入力と大規模なデータセットを必要とする従来のアプローチとは異なり、Koralは断片化されたテレメトリからデータKGを生成し、すでに文献、レポート、トレースから知識を整理している文学KGを統合する。
このことは、構造化されていないソースをクエリ可能なグラフに変換し、テレメトリを構造化された知識にし、グラフはどちらも、ドメインの語彙や制約に沿ったエビデンスベースの説明可能な分析を提供するためにLLMをガイドする。
実際の運用トレースを使用した評価は、Koralが専門家レベルの診断とレコメンデーションを提供し、推論の透明性を改善し、オペレータの決定をガイドし、手作業の削減と、サービス品質を改善するための実行可能な洞察を提供する、基礎的な説明によって支持されていることを示している。
我々の知る限り、これはDescriptive、Predictive、Prescriptive、What-if分析を含むフルスペクトルSSD推論のためにLLMとKGを組み合わせた最初のエンドツーエンドシステムである。
生成したSSD固有のKGを公開し、知識ベースストレージシステム分析における再現可能な研究を進める。
GitHubリポジトリ:https://github.com/Damrl-lab/KORAL
関連論文リスト
- Can LLMs Clean Up Your Mess? A Survey of Application-Ready Data Preparation with LLMs [66.63911043019294]
データ準備は、生のデータセットを識別し、データセット間の関係を解明し、それらから貴重な洞察を抽出することを目的としている。
本稿では,様々な下流タスクのためのデータ準備にLLM技術を用いることに焦点を当てる。
データクリーニング、標準化、エラー処理、計算、データ統合、データ豊か化という3つの主要なタスクにフィールドを編成するタスク中心の分類を導入します。
論文 参考訳(メタデータ) (2026-01-22T12:02:45Z) - G-reasoner: Foundation Models for Unified Reasoning over Graph-structured Knowledge [88.82814893945077]
大規模言語モデル(LLM)は複雑な推論において優れているが、静的かつ不完全なパラメトリック知識によって制限される。
最近のグラフ強化RAG (GraphRAG) は、このギャップを補足したグラフを構築し、LLMがそれらを推論できるようにする。
G-reasonerは、様々なグラフ構造化知識を推論するためにグラフと言語基盤モデルを統合した統合フレームワークである。
論文 参考訳(メタデータ) (2025-09-29T04:38:12Z) - Beyond Textual Context: Structural Graph Encoding with Adaptive Space Alignment to alleviate the hallucination of LLMs [15.260879306368674]
SSKG-LLMは、KGの構造情報を大規模言語モデルの推論プロセスに効率的に統合する革新的なモデルアーキテクチャである。
我々は、広範囲にわたる実験を行い、かつ、KGの構造情報を組み込むことによって、LLMの事実推論能力を高める方法について、詳細な分析を行う。
論文 参考訳(メタデータ) (2025-09-26T12:14:01Z) - Enrich-on-Graph: Query-Graph Alignment for Complex Reasoning with LLM Enriching [61.824094419641575]
大言語モデル(LLM)は知識グラフ質問応答(KGQA)のような知識集約的なシナリオにおける幻覚と事実的誤りに苦しむ
これは、構造化知識グラフ(KG)と非構造化クエリのセマンティックギャップによるもので、その焦点や構造に固有の違いが原因である。
既存の手法は通常、バニラKGの資源集約的で非スケーリング可能な推論を用いるが、このギャップを見落としている。
我々は、LLMの事前知識を活用してKGを充実させる柔軟なフレームワークEnrich-on-Graph(EoG)を提案し、グラフとクエリ間のセマンティックギャップを埋める。
論文 参考訳(メタデータ) (2025-09-25T06:48:52Z) - Resolving Knowledge Conflicts in Domain-specific Data Selection: A Case Study on Medical Instruction-tuning [83.99974309930072]
ドメイン固有の命令チューニングは、大規模言語モデルの性能向上のためのデファクトスタンダードとなっている。
LLMの実際のニーズを満たすドメイン固有の命令調整データを選択するための知識対応データ選択フレームワークを提案する。
大きな知識の衝突でデータをフィルタリングし、高品質で多様なデータをサンプリングすることで、KDSはLLMの能力を効果的に刺激し、ドメイン固有のパフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2025-05-28T04:18:24Z) - Injecting Knowledge Graphs into Large Language Models [0.0]
我々は,大規模言語モデル内のグラフ埋め込みをトークンとして統合するエンコーディング技術を構築した。
我々のアプローチは、モデルに依存しず、リソース効率が良く、どのLLMとも互換性がある。
論文 参考訳(メタデータ) (2025-05-12T13:31:26Z) - Grounding LLM Reasoning with Knowledge Graphs [4.279373869671241]
我々は、知識グラフと推論戦略を統合することで、KGデータにおける推論チェーンのすべてのステップまたは"思想"をアンカーする。
我々は,Chain-of-Thought (CoT), Tree-of-Thought (ToT), Graph-of-Thought (GoT) など,いくつかの推論手法によるエージェント検索と自動検索の両方を評価した。
我々の実験は、このアプローチがベースラインモデルより一貫して優れていることを示した。
論文 参考訳(メタデータ) (2025-02-18T19:20:46Z) - ADKGD: Anomaly Detection in Knowledge Graphs with Dual-Channel Training [38.3788247358102]
本稿では、二重チャネル学習(ADKGD)を用いた知識グラフにおける異常検出アルゴリズムを提案する。
両チャネル間のスコアリング関数の精度を向上させるために,KL(Kullback-leibler)-loss成分を導入する。
実験の結果,ADKGDは最先端の異常検出アルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2025-01-13T06:22:52Z) - GIVE: Structured Reasoning of Large Language Models with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを融合して、最小の外部入力で正確な推論を改善する新しい推論手法である。
GIVE は LLM エージェントをガイドして,最も関連する専門家データ (observe) を選択し,クエリ固有の発散思考 (reflect) に従事し,その情報を合成して最終的な出力 (speak) を生成する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - Discovering and Reasoning of Causality in the Hidden World with Large Language Models [109.62442253177376]
我々はCausal representatiOn AssistanT(COAT)と呼ばれる新しいフレームワークを開発し、因果発見に有用な測定変数を提案する。
大規模言語モデル (LLM) と因果関係を直接推論する代わりに、COAT は中間因果発見結果から LLM へのフィードバックを構築し、提案した変数を洗練させる。
論文 参考訳(メタデータ) (2024-02-06T12:18:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。