論文の概要: NeurStore: Efficient In-database Deep Learning Model Management System
- arxiv url: http://arxiv.org/abs/2509.03228v1
- Date: Wed, 03 Sep 2025 11:35:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.497193
- Title: NeurStore: Efficient In-database Deep Learning Model Management System
- Title(参考訳): NeurStore: 効率的なデータベース内ディープラーニングモデル管理システム
- Authors: Siqi Xiang, Sheng Wang, Xiaokui Xiao, Cong Yue, Zhanhao Zhao, Beng Chin Ooi,
- Abstract要約: 本稿では,データベース内モデル管理システムNeurStoreについて述べる。
NeurStoreはテンソルベースのモデルストレージエンジンを使用して、データベース内の詳細なモデルストレージを可能にする。
我々は、NeurStoreが最先端の手法と比較して圧縮比と競合モデルの負荷スループットに優れていることを示す。
- 参考スコア(独自算出の注目度): 29.416005300485846
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the prevalence of in-database AI-powered analytics, there is an increasing demand for database systems to efficiently manage the ever-expanding number and size of deep learning models. However, existing database systems typically store entire models as monolithic files or apply compression techniques that overlook the structural characteristics of deep learning models, resulting in suboptimal model storage overhead. This paper presents NeurStore, a novel in-database model management system that enables efficient storage and utilization of deep learning models. First, NeurStore employs a tensor-based model storage engine to enable fine-grained model storage within databases. In particular, we enhance the hierarchical navigable small world (HNSW) graph to index tensors, and only store additional deltas for tensors within a predefined similarity threshold to ensure tensor-level deduplication. Second, we propose a delta quantization algorithm that effectively compresses delta tensors, thus achieving a superior compression ratio with controllable model accuracy loss. Finally, we devise a compression-aware model loading mechanism, which improves model utilization performance by enabling direct computation on compressed tensors. Experimental evaluations demonstrate that NeurStore achieves superior compression ratios and competitive model loading throughput compared to state-of-the-art approaches.
- Abstract(参考訳): データベース内AIによる分析の普及に伴い、ディープラーニングモデルの拡張する数とサイズを効率的に管理するデータベースシステムに対する需要が高まっている。
しかし、既存のデータベースシステムでは、モデル全体をモノリシックなファイルとして格納するか、あるいはディープラーニングモデルの構造的特性を無視する圧縮技術を適用し、結果として、サブ最適モデルストレージオーバーヘッドが発生する。
本稿では,ディープラーニングモデルの効率的な保存と利用を可能にするデータベース内モデル管理システムNeurStoreを提案する。
まず、NeurStoreはテンソルベースのモデルストレージエンジンを使用して、データベース内のきめ細かいモデルストレージを可能にする。
特に、階層的ナビゲート可能な小世界 (HNSW) グラフをテンソルのインデックス化に拡張し、テンソルに対する追加のデルタをテンソルレベルの重複を保証するために予め定義された類似性しきい値に格納する。
次に,デルタテンソルを効果的に圧縮するデルタ量子化アルゴリズムを提案する。
最後に,圧縮テンソル上で直接計算を行うことにより,モデル利用性能を向上させる圧縮対応モデルローディング機構を提案する。
実験により、NeurStoreは、最先端手法と比較して圧縮比と競合モデルの負荷スループットが優れていることが示された。
関連論文リスト
- Dynamic Base model Shift for Delta Compression [53.505380509713575]
デルタ圧縮はデルタパラメータの冗長性を減少させることでコスト削減を試みる。
既存のメソッドはデフォルトでベースモデルとして事前訓練されたモデルを使用し、各タスクのデルタパラメータを圧縮する。
デルタ圧縮を行う前にベースモデルを対象タスクに動的に適応させる動的ベースモデルシフト(DBMS)を提案する。
論文 参考訳(メタデータ) (2025-05-16T15:11:19Z) - Over-parameterized Student Model via Tensor Decomposition Boosted Knowledge Distillation [10.48108719012248]
我々は、より大規模な教師モデルを模倣するために、コンパクトな学生モデルを訓練する知識蒸留(KD)に焦点を当てる。
これまでの作業の多くとは対照的に、トレーニング中の学生モデルのパラメータをスケールアップする。
論文 参考訳(メタデータ) (2024-11-10T12:40:59Z) - Variational autoencoder-based neural network model compression [4.992476489874941]
変分オートエンコーダ(VAE)は、深部生成モデルの一種であり、近年広く使われている。
本稿では,VAEに基づくニューラルネットワークモデル圧縮手法について検討する。
論文 参考訳(メタデータ) (2024-08-25T09:06:22Z) - BEND: Bagging Deep Learning Training Based on Efficient Neural Network Diffusion [56.9358325168226]
BEND(Efficient Neural Network Diffusion)に基づくバッグング深層学習学習アルゴリズムを提案する。
我々のアプローチは単純だが効果的であり、まず複数のトレーニングされたモデルの重みとバイアスを入力として、オートエンコーダと潜伏拡散モデルを訓練する。
提案したBENDアルゴリズムは,元のトレーニングモデルと拡散モデルの両方の平均および中央値の精度を一貫して向上させることができる。
論文 参考訳(メタデータ) (2024-03-23T08:40:38Z) - Reusing Pretrained Models by Multi-linear Operators for Efficient
Training [65.64075958382034]
大規模なモデルをスクラッチからトレーニングすることは、通常、かなりの量のリソースを必要とする。
bert2BERT や LiGO といった最近の研究は、大規模なモデルを初期化するために、小さな事前訓練されたモデルを再利用している。
本稿では,対象モデルの各重みを事前学習モデルの全重みに線形に相関させる手法を提案する。
論文 参考訳(メタデータ) (2023-10-16T06:16:47Z) - Uncovering the Hidden Cost of Model Compression [43.62624133952414]
視覚プロンプティングは、コンピュータビジョンにおける伝達学習の重要な方法として登場した。
モデル圧縮は視覚的プロンプトベース転送の性能に有害である。
しかし、量子化によってモデルが圧縮されるとき、キャリブレーションに対する負の効果は存在しない。
論文 参考訳(メタデータ) (2023-08-29T01:47:49Z) - Self-Distillation with Meta Learning for Knowledge Graph Completion [26.268302804627726]
知識グラフ補完のためのメタラーニングを用いた自己蒸留フレームワークを提案する。
本稿ではまず,大規模ソースモデルから小さなプルーニングモデルを得るための動的プルーニング手法を提案する。
そこで我々は,ソースモデルからプルーンドモデルへの包括的知識を蒸留するための一段階のメタ自己蒸留法を提案する。
特に,1回の反復でソースモデルと一緒に訓練されたプルーンドモデルの性能を利用して,ソースモデルの知識伝達能力を向上させる。
論文 参考訳(メタデータ) (2023-05-20T15:12:25Z) - Scaling Pre-trained Language Models to Deeper via Parameter-efficient
Architecture [68.13678918660872]
行列積演算子(MPO)に基づくより有能なパラメータ共有アーキテクチャを設計する。
MPO分解はパラメータ行列の情報を再編成し、2つの部分に分解することができる。
私たちのアーキテクチャは、モデルのサイズを減らすために、すべてのレイヤで中央テンソルを共有しています。
論文 参考訳(メタデータ) (2023-03-27T02:34:09Z) - Self-Feature Regularization: Self-Feature Distillation Without Teacher
Models [0.0]
浅層層における機能学習を監督するために深層の特徴を用いるセルフフィーチャー正規化(sfr)を提案する。
まず,局所的な特徴にマッチする一般化l2損失と,チャネル次元においてより集中的に蒸留する多対一の手法を用いる。
論文 参考訳(メタデータ) (2021-03-12T15:29:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。