論文の概要: Timing and Memory Telemetry on GPUs for AI Governance
- arxiv url: http://arxiv.org/abs/2602.09369v1
- Date: Tue, 10 Feb 2026 03:20:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.348489
- Title: Timing and Memory Telemetry on GPUs for AI Governance
- Title(参考訳): AIガバナンスのためのGPUのタイミングとメモリテレメトリ
- Authors: Saleh K. Monfared, Fatemeh Ganji, Dan Holcomb, Shahin Tajik,
- Abstract要約: 本稿では,計算活動と相関する時間とメモリベースの観測値を生成する計測フレームワークを提案する。
これらのプリミティブは、信頼できるファームウェア、エンクレーブ、ベンダーが管理するカウンタなしでも観測可能なGPUエンゲージメントの統計的および行動的指標を提供する。
- 参考スコア(独自算出の注目度): 3.3108773921973316
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid expansion of GPU-accelerated computing has enabled major advances in large-scale artificial intelligence (AI), while heightening concerns about how accelerators are observed or governed once deployed. Governance is essential to ensure that large-scale compute infrastructure is not silently repurposed for training models, circumventing usage policies, or operating outside legal oversight. Because current GPUs expose limited trusted telemetry and can be modified or virtualized by adversaries, we explore whether compute-based measurements can provide actionable signals of utilization when host and device are untrusted. We introduce a measurement framework that leverages architectural characteristics of modern GPUs to generate timing- and memory-based observables that correlate with compute activity. Our design draws on four complementary primitives: (1) a probabilistic, workload-driven mechanism inspired by Proof-of-Work (PoW) to expose parallel effort, (2) sequential, latency-sensitive workloads derived via Verifiable Delay Functions (VDFs) to characterize scalar execution pressure, (3) General Matrix Multiplication (GEMM)-based tensor-core measurements that reflect dense linear-algebra throughput, and (4) a VRAM-residency test that distinguishes on-device memory locality from off-chip access through bandwidth-dependent hashing. These primitives provide statistical and behavioral indicators of GPU engagement that remain observable even without trusted firmware, enclaves, or vendor-controlled counters. We evaluate their responses to contention, architectural alignment, memory pressure, and power overhead, showing that timing shifts and residency latencies reveal meaningful utilization patterns. Our results illustrate why compute-based telemetry can complement future accountability mechanisms by exposing architectural signals relevant to post-deployment GPU governance.
- Abstract(参考訳): GPU加速コンピューティングの急速な拡張は、大規模人工知能(AI)の大きな進歩を可能にし、アクセルの監視やデプロイ時の管理に関する懸念を高めた。
ガバナンスは、大規模コンピューティングインフラストラクチャが、トレーニングモデルや使用ポリシーの回避、あるいは法的監視外部の運用のために静かに再利用されていないことを保証するために不可欠である。
現在のGPUは、限られた信頼されたテレメトリを公開しており、敵によって修正または仮想化できるため、ホストとデバイスが信頼できない場合に、計算ベースの計測が実用的な利用信号を提供できるかどうかを探索する。
本稿では,現代的なGPUのアーキテクチャ特性を活用して,計算活動と相関するタイミングとメモリベースの観測値を生成するための測定フレームワークを提案する。
本設計では,(1)Proof-of-Work(PoW)にインスパイアされた確率的・作業負荷駆動機構,(2)Verifiable Delay Functions(VDFs)による並列処理による並列処理,(3)高密度線形代数スループットを反映したGEMMベースのテンソルコア計測,(4)デバイス上のメモリローカリティと帯域依存ハッシュによるオフチップアクセスとを区別するVRAM-Residencyテスト,の4つの相補的プリミティブを設計した。
これらのプリミティブは、信頼できるファームウェア、エンクレーブ、ベンダーが管理するカウンタなしでも観測可能なGPUエンゲージメントの統計的および行動的指標を提供する。
コンパニオン,アーキテクチャアライメント,メモリプレッシャ,電力オーバヘッドに対する応答を評価し,時間変化と居住遅延が有意義な利用パターンを明らかにした。
この結果から,処理後のGPUガバナンスに関連するアーキテクチャ信号を公開することで,計算ベースのテレメトリが今後の説明責任メカニズムを補完する可能性が示唆された。
関連論文リスト
- Enabling Physical AI at the Edge: Hardware-Accelerated Recovery of System Dynamics [4.058950730052848]
textbfMERINDA (Model Recovery in Reconfigurable Dynamic Architecture) はFPGAが加速するMRフレームワークで、リソース制約のあるデバイスで物理AIを実用的なものにするために設計された。
MERINDAは、自律システムのリアルタイム監視のために、正確で説明可能なMRをエッジに持ち込むことができることを示す。
論文 参考訳(メタデータ) (2025-12-29T04:51:51Z) - An LLVM-Based Optimization Pipeline for SPDZ [0.0]
我々はSPDZプロトコルのための概念実証LLVMベースの最適化パイプラインを実装した。
フロントエンドは軽量なプライバシアノテーションを備えたCのサブセットを受け入れ、LLVM IRに格下げします。
我々のバックエンドは、最適化されたIR上でデータフローと制御フローの分析を行い、ノンブロッキングランタイムスケジューラを駆動します。
論文 参考訳(メタデータ) (2025-12-11T20:53:35Z) - Beyond the GPU: The Strategic Role of FPGAs in the Next Wave of AI [0.0]
Field-Programmable Gate Arrays (FPGA)は、AIアルゴリズムを直接デバイスロジックにマッピングできる再構成可能なプラットフォームである。
CPUやGPUアーキテクチャとは異なり、FPGAはその物理構造を特定のモデルに適応させるために、フィールドで再構成することができる。
AIフレームワークからの部分的な再構成とコンパイルフローは、プロトタイプからデプロイメントまでのパスを短縮している。
論文 参考訳(メタデータ) (2025-11-04T03:41:42Z) - MAS-Attention: Memory-Aware Stream Processing for Attention Acceleration on Resource-Constrained Edge Devices [24.1144641404561]
本稿では,メモリ制約付きエッジアクセラレータ上での正確なアテンション推定高速化手法を提案する。
エッジコンピューティングのシナリオではFLAT (State-of-the-art attention fusion Method) と比較して,2.75倍のスピードアップと54%のエネルギー消費削減が見られた。
論文 参考訳(メタデータ) (2024-11-20T19:44:26Z) - Efficient and accurate neural field reconstruction using resistive memory [52.68088466453264]
デジタルコンピュータにおける従来の信号再構成手法は、ソフトウェアとハードウェアの両方の課題に直面している。
本稿では,スパース入力からの信号再構成のためのソフトウェア・ハードウェア協調最適化を用いた体系的アプローチを提案する。
この研究は、AI駆動の信号復元技術を進歩させ、将来の効率的で堅牢な医療AIと3Dビジョンアプリケーションへの道を開く。
論文 参考訳(メタデータ) (2024-04-15T09:33:09Z) - FLEdge: Benchmarking Federated Machine Learning Applications in Edge Computing Systems [61.335229621081346]
フェデレートラーニング(FL)は,ネットワークエッジ上での分散ディープラーニングのプライバシ強化を実現する上で,有効なテクニックとなっている。
本稿では,既存のFLベンチマークを補完するFLEdgeを提案する。
論文 参考訳(メタデータ) (2023-06-08T13:11:20Z) - ETLP: Event-based Three-factor Local Plasticity for online learning with
neuromorphic hardware [105.54048699217668]
イベントベース3要素局所塑性(ETLP)の計算複雑性に明らかな優位性を有する精度の競争性能を示す。
また, 局所的可塑性を用いた場合, スパイキングニューロンの閾値適応, 繰り返しトポロジーは, 時間的構造が豊富な時間的パターンを学習するために必要であることを示した。
論文 参考訳(メタデータ) (2023-01-19T19:45:42Z) - MAPLE-X: Latency Prediction with Explicit Microprocessor Prior Knowledge [87.41163540910854]
ディープニューラルネットワーク(DNN)レイテンシのキャラクタリゼーションは、時間を要するプロセスである。
ハードウェアデバイスの事前知識とDNNアーキテクチャのレイテンシを具体化し,MAPLEを拡張したMAPLE-Xを提案する。
論文 参考訳(メタデータ) (2022-05-25T11:08:20Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。