論文の概要: Legilimens: Performant Video Analytics on the System-on-Chip Edge
- arxiv url: http://arxiv.org/abs/2504.21136v1
- Date: Tue, 29 Apr 2025 19:45:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 23:35:41.119169
- Title: Legilimens: Performant Video Analytics on the System-on-Chip Edge
- Title(参考訳): Legilimens: System-on-Chip Edge上のパフォーマンスビデオ分析
- Authors: Murali Ramanujam, Yinwei Dai, Kyle Jamieson, Ravi Netravali,
- Abstract要約: Legilimensは、モバイルエッジのSystem-on-Chipのための継続的学習システムである。
特殊モデルの再学習のための高ユーティリティデータサンプルを選択するための新しい計算効率の手法を提案する。
多様なワークロードに対して、レジリメンは既存のシステムに比べて2.8-10倍のトレーニングコストを削減し、18-45%の精度を実現している。
- 参考スコア(独自算出の注目度): 11.779236412531166
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continually retraining models has emerged as a primary technique to enable high-accuracy video analytics on edge devices. Yet, existing systems employ such adaptation by relying on the spare compute resources that traditional (memory-constrained) edge servers afford. In contrast, mobile edge devices such as drones and dashcams offer a fundamentally different resource profile: weak(er) compute with abundant unified memory pools. We present Legilimens, a continuous learning system for the mobile edge's System-on-Chip GPUs. Our driving insight is that visually distinct scenes that require retraining exhibit substantial overlap in model embeddings; if captured into a base model on device memory, specializing to each new scene can become lightweight, requiring very few samples. To practically realize this approach, Legilimens presents new, compute-efficient techniques to (1) select high-utility data samples for retraining specialized models, (2) update the base model without complete retraining, and (3) time-share compute resources between retraining and live inference for maximal accuracy. Across diverse workloads, Legilimens lowers retraining costs by 2.8-10x compared to existing systems, resulting in 18-45% higher accuracies.
- Abstract(参考訳): エッジデバイス上での高精度なビデオ分析を可能にする主要なテクニックとして、継続的なリトレーニングモデルが登場している。
しかし、既存のシステムは、従来の(メモリに制約のある)エッジサーバが持つ余分な計算資源に頼ることで、そのような適応を採用しています。
対照的に、ドローンやダッシュカムのようなモバイルエッジデバイスは、基本的に異なるリソースプロファイルを提供する。
本稿では,モバイルエッジのSystem-on-Chip GPUのための継続的学習システムであるLegilimensを紹介する。
我々の駆動的洞察は、再トレーニングを必要とする視覚的に異なるシーンは、モデル埋め込みにおいてかなりの重複を示し、デバイスメモリのベースモデルにキャプチャーされた場合、各新しいシーンに特化して、非常に少数のサンプルを必要とする。
このアプローチを現実的に実現するために,(1)特殊モデルの再トレーニングのための高ユーティリティデータサンプルの選択,(2)完全再トレーニングなしでベースモデルを更新すること,(3)再トレーニングとライブ推論の間の時間共有計算資源を最大精度のために提示する。
多様なワークロードに対して、レジリメンは既存のシステムに比べて2.8-10倍のトレーニングコストを削減し、18-45%の精度を実現している。
関連論文リスト
- AutoHete: An Automatic and Efficient Heterogeneous Training System for LLMs [68.99086112477565]
トランスフォーマーベースの大規模言語モデル(LLM)は、シーケンスモデリングやテキスト生成において例外的な機能を示した。
既存の異種トレーニング手法は、トレーニング可能なモデルの規模を大幅に拡大するが、かなりの通信オーバーヘッドとCPUワークロードを導入している。
本稿では,シングルGPU環境とマルチGPU環境の両方に互換性のある,自動的で効率的なヘテロジニアストレーニングシステムであるAutoHeteを提案する。
論文 参考訳(メタデータ) (2025-02-27T14:46:22Z) - Stepping Forward on the Last Mile [8.756033984943178]
本稿では,バックプロパゲーションと比較してメモリフットプリントと精度のギャップを低減させるアルゴリズムの一連の拡張を提案する。
その結果、エッジデバイス上でのモデルカスタマイズの最後のマイルでは、固定点前方勾配によるトレーニングが実現可能で実践的なアプローチであることが示されている。
論文 参考訳(メタデータ) (2024-11-06T16:33:21Z) - Edge Unlearning is Not "on Edge"! An Adaptive Exact Unlearning System on Resource-Constrained Devices [26.939025828011196]
忘れられる権利は、機械学習モデルがデータ所有者のデータと訓練されたモデルからの情報の消去を可能にすることを義務付ける。
本稿では,ネットワークエッジ(CAUSE)における制約対応適応エクササイズ学習システムを提案する。
論文 参考訳(メタデータ) (2024-10-14T03:28:09Z) - Taming 3DGS: High-Quality Radiance Fields with Limited Resources [50.92437599516609]
3D Gaussian Splatting (3DGS)は、高速で解釈可能で高忠実なレンダリングで新規ビュー合成を変換した。
予算で3DGSモデルをトレーニングし、レンダリングするという課題に取り組みます。
我々は、勾配計算と属性更新のための高速で数値的に等価な解を導出する。
論文 参考訳(メタデータ) (2024-06-21T20:44:23Z) - EdgeSync: Faster Edge-model Updating via Adaptive Continuous Learning for Video Data Drift [7.165359653719119]
リアルタイムビデオ分析システムは一般的に、レイテンシを低減するためにエッジデバイスに重みを減らしたモデルを配置する。
映像コンテンツの特徴の分布は時間とともに変化し、既存のモデルの精度が低下する。
最近の研究は、リモートサーバを使用して、複雑なモデルの助けを借りて、エッジで軽量モデルを継続的にトレーニングし、適応するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T07:06:26Z) - Time-, Memory- and Parameter-Efficient Visual Adaptation [75.28557015773217]
バックボーンを介して勾配をバックプロパゲートしない適応法を提案する。
凍結した、事前訓練されたバックボーンの機能を利用する軽量ネットワークを並列に設計することで、これを実現する。
論文 参考訳(メタデータ) (2024-02-05T10:55:47Z) - Fast Machine Unlearning Without Retraining Through Selective Synaptic
Dampening [51.34904967046097]
Selective Synaptic Dampening (SSD)は高速で、訓練データの長期保存を必要としない。
高速で性能が高く,トレーニングデータの長期保存を必要としない,新しい2段階のポストホック,リトレーニングフリーなマシンアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T11:30:45Z) - Aggregating Capacity in FL through Successive Layer Training for
Computationally-Constrained Devices [3.4530027457862]
フェデレートラーニング(FL)は通常、リソース制約されたエッジデバイス上で実行される。
FLトレーニングプロセスはそのような制約に合わせて調整されるべきである。
本研究では,FLモデルのパラメータをデバイス上で連続的に凍結・訓練する手法を提案する。
論文 参考訳(メタデータ) (2023-05-26T15:04:06Z) - On-Device Training Under 256KB Memory [62.95579393237751]
本稿では,256KBのメモリでデバイス上でのトレーニングを可能にするアルゴリズム・システム協調設計フレームワークを提案する。
私たちのフレームワークは256KBと1MBのFlashで畳み込みニューラルネットワークのデバイス上での小さなトレーニングを可能にする最初のソリューションです。
論文 参考訳(メタデータ) (2022-06-30T17:59:08Z) - Powerpropagation: A sparsity inducing weight reparameterisation [65.85142037667065]
我々は、本質的にスパースモデルにつながるニューラルネットワークの新しい重みパラメータ化であるPowerpropagationを紹介した。
この方法で訓練されたモデルは同様の性能を示すが、0で明らかに高い密度の分布を持ち、より多くのパラメータを安全に刈り取ることができる。
ここでは、Powerpropagationと従来のウェイトプルーニング技術と、最近の最先端スパース・トゥ・スパースアルゴリズムを組み合わせることで、ImageNetベンチマークで優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-10-01T10:03:57Z) - Ekya: Continuous Learning of Video Analytics Models on Edge Compute
Servers [20.533131101027067]
継続的学習は、新しいデータ上で定期的にモデルをトレーニングすることで、データのドリフトを処理する。
私たちの仕事は、エッジサーバ上のタスクの推論と再トレーニングを共同でサポートするという課題に対処します。
Ekyaはこのトレードオフを複数のモデルに分散させ、マイクロプロファイラを使用して、リトレーニングによって最も利益を得るモデルを特定します。
論文 参考訳(メタデータ) (2020-12-19T00:29:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。