論文の概要: Sentry: Authenticating Machine Learning Artifacts on the Fly
- arxiv url: http://arxiv.org/abs/2510.00554v1
- Date: Wed, 01 Oct 2025 06:13:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.412955
- Title: Sentry: Authenticating Machine Learning Artifacts on the Fly
- Title(参考訳): Sentry: マシンラーニングアーティファクトをオンザフライで認証する
- Authors: Andrew Gan, Zahra Ghodsi,
- Abstract要約: 機械学習システムは、データセットや他のパーティによって作成またはホストされるモデルのような、オープンソースのアーティファクトにますます依存している。
外部データセットと事前トレーニングされたモデルへの依存は、エンドユーザに配信する前にアーティファクトを毒化できるチェーンアタックをサプライするシステムを公開する。
Sentryは、データセットとモデルの暗号署名と検証を実装することによって、機械学習アーティファクトの信頼性を検証する新しいフレームワークである。
- 参考スコア(独自算出の注目度): 1.8514233388962094
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning systems increasingly rely on open-source artifacts such as datasets and models that are created or hosted by other parties. The reliance on external datasets and pre-trained models exposes the system to supply chain attacks where an artifact can be poisoned before it is delivered to the end-user. Such attacks are possible due to the lack of any authenticity verification in existing machine learning systems. Incorporating cryptographic solutions such as hashing and signing can mitigate the risk of supply chain attacks. However, existing frameworks for integrity verification based on cryptographic techniques can incur significant overhead when applied to state-of-the-art machine learning artifacts due to their scale, and are not compatible with GPU platforms. In this paper, we develop Sentry, a novel GPU-based framework that verifies the authenticity of machine learning artifacts by implementing cryptographic signing and verification for datasets and models. Sentry ties developer identities to signatures and performs authentication on the fly as artifacts are loaded on GPU memory, making it compatible with GPU data movement solutions such as NVIDIA GPUDirect that bypass the CPU. Sentry incorporates GPU acceleration of cryptographic hash constructions such as Merkle tree and lattice hashing, implementing memory optimizations and resource partitioning schemes for a high throughput performance. Our evaluations show that Sentry is a practical solution to bring authenticity to machine learning systems, achieving orders of magnitude speedup over a CPU-based baseline.
- Abstract(参考訳): 機械学習システムは、データセットや他のパーティによって作成またはホストされるモデルのような、オープンソースのアーティファクトにますます依存している。
外部データセットと事前トレーニングされたモデルへの依存は、エンドユーザに配信する前にアーティファクトを毒化できるチェーンアタックをサプライするシステムを公開する。
このような攻撃は、既存の機械学習システムに信頼性検証がないために起こりうる。
ハッシュや署名などの暗号化ソリューションを組み込むことで、サプライチェーン攻撃のリスクを軽減することができる。
しかし、暗号技術に基づく既存の整合性検証のためのフレームワークは、そのスケールのため最先端の機械学習アーティファクトに適用した場合に重大なオーバーヘッドを生じさせ、GPUプラットフォームと互換性がない。
本稿では,データセットとモデルの暗号署名と検証を実装することによって,機械学習アーティファクトの真正性を検証する,GPUベースの新しいフレームワークであるSentryを開発する。
Sentryは開発者IDをシグネチャに結び付け、GPUメモリにアーティファクトがロードされると、オンザフライで認証を実行する。
Sentryは、Merkleツリーや格子ハッシュといった暗号ハッシュ構造のGPUアクセラレーションを導入し、メモリ最適化とリソース分割スキームを実装し、高いスループット性能を実現している。
評価の結果、Sentryは機械学習システムに信頼性をもたらすための実用的なソリューションであり、CPUベースのベースライン上での桁違いのスピードアップを実現している。
関連論文リスト
- ShadowScope: GPU Monitoring and Validation via Composable Side Channel Signals [6.389108369952326]
GPUカーネルは、従来のメモリ安全性問題と新たなマイクロアーキテクチャ脅威の両方に対して脆弱である。
構成可能なゴールデンモデルを活用した監視・検証フレームワークであるShadowScopeを提案する。
また、GPUパイプラインに軽量のオンチップチェックを統合するハードウェア支援のバリデーションメカニズムであるShadowScope+も導入しています。
論文 参考訳(メタデータ) (2025-08-30T01:38:05Z) - Crypto Miner Attack: GPU Remote Code Execution Attacks [0.0]
リモートコード実行(RCE)のエクスプロイトは、AIとMLシステムに重大な脅威をもたらす。
本稿では,デシリアライズ脆弱性とLambdaレイヤなどのカスタムレイヤを活用するRCE攻撃に焦点を当てる。
これらの脆弱性を利用して、暗号マイナをGPU上にデプロイする攻撃を実演する。
論文 参考訳(メタデータ) (2025-02-09T19:26:47Z) - Data-Independent Operator: A Training-Free Artifact Representation
Extractor for Generalizable Deepfake Detection [105.9932053078449]
本研究では,より一般的な人工物表現を捉えるのに,小型かつトレーニング不要なフィルタが十分であることを示す。
トレーニングソースとテストソースの両方に不偏があるため、未確認ソースに対して魅力的な改善を実現するために、Data-Independent Operator (DIO)と定義する。
我々の検出器は13.3%の大幅な改善を実現し、新しい最先端の性能を確立した。
論文 参考訳(メタデータ) (2024-03-11T15:22:28Z) - Whispering Pixels: Exploiting Uninitialized Register Accesses in Modern GPUs [6.1255640691846285]
我々は、Apple、NVIDIA、Qualcommの3つの主要ベンダーの製品に脆弱性があることを実証する。
この脆弱性は、不透明なスケジューリングとレジスタ再マッピングアルゴリズムのために、敵に固有の課題をもたらす。
我々は,畳み込みニューラルネットワーク(CNN)の中間データに対する情報漏洩攻撃を実装し,大規模言語モデル(LLM)の出力を漏洩・再構成する攻撃能力を示す。
論文 参考訳(メタデータ) (2024-01-16T23:36:48Z) - FusionAI: Decentralized Training and Deploying LLMs with Massive
Consumer-Level GPUs [57.12856172329322]
我々は、巨大な未使用のコンシューマレベルのGPUをアンロックする分散システムを構想する。
このシステムは、CPUとGPUメモリの制限、ネットワーク帯域幅の低さ、ピアとデバイスの多様性など、重要な課題に直面している。
論文 参考訳(メタデータ) (2023-09-03T13:27:56Z) - EVEREST: Efficient Masked Video Autoencoder by Removing Redundant Spatiotemporal Tokens [57.354304637367555]
ビデオ表現学習のための驚くほど効率的なMVAアプローチであるEVERESTを提案する。
リッチなモーション特徴を含むトークンを発見し、事前トレーニングと微調整の両方の間、非形式的なトークンを破棄する。
提案手法は,MVAの計算とメモリ要求を大幅に低減する。
論文 参考訳(メタデータ) (2022-11-19T09:57:01Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - Don't Forget to Sign the Gradients! [60.98885980669777]
GradSignsはディープニューラルネットワーク(DNN)のための新しい透かしフレームワーク
深部ニューラルネットワーク(DNN)のための新しい透かしフレームワークであるGradSignsを紹介します。
論文 参考訳(メタデータ) (2021-03-05T14:24:32Z) - How to 0wn NAS in Your Spare Time [11.997555708723523]
本研究では,キャッシュ側チャネル攻撃による情報漏洩を利用して,新しいディープラーニングシステムの主要コンポーネントを再構築するアルゴリズムを設計する。
我々は、マルウェア検出のための新しいデータ前処理パイプラインであるMalConvと、画像ネット分類のための新しいネットワークアーキテクチャであるProxylessNAS CPU-NASを再構築できることを実験的に実証した。
論文 参考訳(メタデータ) (2020-02-17T05:40:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。