論文の概要: Prefetching Cache Optimization Using Graph Neural Networks: A Modular Framework and Conceptual Analysis
- arxiv url: http://arxiv.org/abs/2510.21865v1
- Date: Thu, 23 Oct 2025 10:35:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:14.627086
- Title: Prefetching Cache Optimization Using Graph Neural Networks: A Modular Framework and Conceptual Analysis
- Title(参考訳): グラフニューラルネットワークを用いたキャッシュ最適化:モジュールフレームワークと概念解析
- Authors: F. I. Qowy,
- Abstract要約: 本稿では、グラフ構造化データ内のアクセスパターンをモデル化し、予測するためにグラフニューラルネットワーク(GNN)を利用するモジュラーフレームワークを提案する。
複雑な依存関係を学習することで、GNNベースのアプローチが従来の手法より優れていることを示す、詳細な概念分析を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Caching and prefetching techniques are fundamental to modern computing, serving to bridge the growing performance gap between processors and memory. Traditional prefetching strategies are often limited by their reliance on predefined heuristics or simplified statistical models, which fail to capture the complex, non-linear dependencies in modern data access patterns. This paper introduces a modular framework leveraging Graph Neural Networks (GNNs) to model and predict access patterns within graph-structured data, focusing on web navigation and hierarchical file systems. The toolchain consists of: a route mapper for extracting structural information, a graph constructor for creating graph representations, a walk session generator for simulating user behaviors, and a gnn prefetch module for training and inference. We provide a detailed conceptual analysis showing how GNN-based approaches can outperform conventional methods by learning intricate dependencies. This work offers both theoretical foundations and a practical, replicable pipeline for future research in graph-driven systems optimization.
- Abstract(参考訳): キャッシュとプリフェッチ技術は現代のコンピューティングの基本であり、プロセッサとメモリ間のパフォーマンスギャップの増大を補うのに役立つ。
従来のプリフェッチ戦略は、しばしば、定義済みのヒューリスティックや単純化された統計モデルへの依存によって制限される。
本稿では,グラフニューラルネットワーク(GNN)を活用して,Webナビゲーションと階層ファイルシステムに着目し,グラフ構造化データ内のアクセスパターンをモデル化し,予測する。
ツールチェーンは、構造情報を抽出するルートマッパーと、グラフ表現を作成するグラフコンストラクタと、ユーザ動作をシミュレートするウォークセッションジェネレータと、トレーニングおよび推論を行うgnnプリフェッチモジュールとから構成される。
複雑な依存関係を学習することで、GNNベースのアプローチが従来の手法より優れていることを示す、詳細な概念分析を提供する。
この研究は、理論の基礎と、グラフ駆動システム最適化の将来の研究のための実用的なレプリカブルパイプラインの両方を提供する。
関連論文リスト
- GILT: An LLM-Free, Tuning-Free Graph Foundational Model for In-Context Learning [50.40400074353263]
グラフニューラルネットワーク(GNN)は、リレーショナルデータを先行する強力なツールであるが、しばしば目に見えないグラフに一般化するのに苦労する。
textbfGraph textbfIn-context textbfL textbfTransformer (GILT)を導入する。
論文 参考訳(メタデータ) (2025-10-06T08:09:15Z) - Resource-Aware Neural Network Pruning Using Graph-based Reinforcement Learning [0.8890833546984916]
本稿では,グラフベースの観測空間をAutoMLフレームワークに統合することで,ニューラルネットワークのプルーニングに新たなアプローチを提案する。
本フレームワークは,対象ニューラルネットワークのグラフ表現を導入することにより,刈り込み処理を変換する。
作用空間に対しては、連続プルーニング比から細粒な二分作用空間へ遷移する。
論文 参考訳(メタデータ) (2025-09-04T15:05:05Z) - A Graph Laplacian Eigenvector-based Pre-training Method for Graph Neural Networks [7.359145401513628]
構造に基づく事前学習手法は、基礎となるグラフ構造に依存した下流アプリケーションには不十分だが不可欠である。
グラフラプラシアンの低周波固有ベクトルの予測に基づくグラフニューラルネットワーク(GNN)のための新しい事前学習モジュールであるラプラシア固有ベクトル学習モジュール(LELM)を提案する。
LELMはオーバースムーシングを克服する新しいアーキテクチャを導入し、GNNモデルが長距離相互依存性を学習できるようにする。
論文 参考訳(メタデータ) (2025-09-02T20:07:20Z) - Self-Supervised Contrastive Graph Clustering Network via Structural Information Fusion [15.293684479404092]
CGCNと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,事前学習プロセスにコントラスト信号と深部構造情報を導入している。
本手法は,複数の実世界のグラフデータセットに対して実験的に検証されている。
論文 参考訳(メタデータ) (2024-08-08T09:49:26Z) - GraphGLOW: Universal and Generalizable Structure Learning for Graph
Neural Networks [72.01829954658889]
本稿では,この新たな問題設定の数学的定義を紹介する。
一つのグラフ共有構造学習者と複数のグラフ固有GNNを協調する一般的なフレームワークを考案する。
十分に訓練された構造学習者は、微調整なしで、目に見えない対象グラフの適応的な構造を直接生成することができる。
論文 参考訳(メタデータ) (2023-06-20T03:33:22Z) - EGRC-Net: Embedding-induced Graph Refinement Clustering Network [66.44293190793294]
埋め込みによるグラフリファインメントクラスタリングネットワーク (EGRC-Net) という新しいグラフクラスタリングネットワークを提案する。
EGRC-Netは学習した埋め込みを利用して初期グラフを適応的に洗練し、クラスタリング性能を向上させる。
提案手法はいくつかの最先端手法より一貫して優れている。
論文 参考訳(メタデータ) (2022-11-19T09:08:43Z) - Graph Kernel Neural Networks [53.91024360329517]
本稿では、グラフ上の内部積を計算するカーネル関数であるグラフカーネルを用いて、標準畳み込み演算子をグラフ領域に拡張することを提案する。
これにより、入力グラフの埋め込みを計算する必要のない完全に構造的なモデルを定義することができる。
私たちのアーキテクチャでは,任意の種類のグラフカーネルをプラグインすることが可能です。
論文 参考訳(メタデータ) (2021-12-14T14:48:08Z) - Model-Based Deep Learning [155.063817656602]
信号処理、通信、制御は伝統的に古典的な統計モデリング技術に依存している。
ディープニューラルネットワーク(DNN)は、データから操作を学ぶ汎用アーキテクチャを使用し、優れたパフォーマンスを示す。
私たちは、原理数学モデルとデータ駆動システムを組み合わせて両方のアプローチの利点を享受するハイブリッド技術に興味があります。
論文 参考訳(メタデータ) (2020-12-15T16:29:49Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z) - Ring Reservoir Neural Networks for Graphs [15.07984894938396]
貯留層コンピューティングモデルは、実りあるグラフの埋め込みを開発する上で重要な役割を果たす。
我々の中心となる提案は、リングトポロジーに従うために隠れたニューロンの組織を形成することに基づいている。
グラフ分類タスクの実験結果は、リング・リザーバアーキテクチャが特に効果的なネットワーク構成を可能にしていることを示している。
論文 参考訳(メタデータ) (2020-05-11T17:51:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。