論文の概要: Lightweight Edge Learning via Dataset Pruning
- arxiv url: http://arxiv.org/abs/2602.00047v1
- Date: Mon, 19 Jan 2026 12:23:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 02:03:42.263361
- Title: Lightweight Edge Learning via Dataset Pruning
- Title(参考訳): Dataset Pruningによる軽量エッジ学習
- Authors: Laha Ale, Hu Luo, Mingsheng Cao, Shichao Li, Huanlai Xing, Haifeng Sun,
- Abstract要約: 資源効率のよいエッジ学習を実現するために,データセットプルーニングを利用したデータ中心最適化フレームワークを提案する。
本フレームワークは, プルーニング率に比例したトレーニング遅延とエネルギー消費のほぼ線形化を実現し, モデル精度の劣化を無視できる。
- 参考スコア(独自算出の注目度): 11.037312322970626
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Edge learning facilitates ubiquitous intelligence by enabling model training and adaptation directly on data-generating devices, thereby mitigating privacy risks and communication latency. However, the high computational and energy overhead of on-device training hinders its deployment on battery-powered mobile systems with strict thermal and memory budgets. While prior research has extensively optimized model architectures for efficient inference, the training phase remains bottlenecked by the processing of massive, often redundant, local datasets. In this work, we propose a data-centric optimization framework that leverages dataset pruning to achieve resource-efficient edge learning. Unlike standard methods that process all available data, our approach constructs compact, highly informative training subsets via a lightweight, on-device importance evaluation. Specifically, we utilize average loss statistics derived from a truncated warm-up phase to rank sample importance, deterministically retaining only the most critical data points under a dynamic pruning ratio. This mechanism is model-agnostic and operates locally without inter-device communication. Extensive experiments on standard image classification benchmarks demonstrate that our framework achieves a near-linear reduction in training latency and energy consumption proportional to the pruning ratio, with negligible degradation in model accuracy. These results validate dataset pruning as a vital, complementary paradigm for enhancing the sustainability and scalability of learning on resource-constrained mobile edge devices.
- Abstract(参考訳): エッジ学習は、データ生成デバイスに直接モデルトレーニングと適応を可能にすることにより、ユビキタスインテリジェンスを促進する。
しかし、オンデバイストレーニングの計算とエネルギーのオーバーヘッドが高いため、バッテリー駆動のモバイルシステムへの展開は困難であり、熱とメモリの予算は厳しい。
これまでの研究では、効率的な推論のためにモデルアーキテクチャを広範囲に最適化してきたが、トレーニングフェーズは、大規模な、しばしば冗長なローカルデータセットの処理によってボトルネックを被ったままである。
本研究では,資源効率のよいエッジ学習を実現するために,データセットプルーニングを活用するデータ中心最適化フレームワークを提案する。
すべての利用可能なデータを処理する標準的な方法とは異なり、当社のアプローチは軽量でオンデバイスな重要度評価を通じて、コンパクトで情報性の高いトレーニングサブセットを構築します。
具体的には、停止したウォームアップフェーズから得られた平均損失統計を利用して、サンプリングの重要度をランク付けし、動的プルーニング比の下で最も重要なデータポイントのみを決定的に保持する。
このメカニズムはモデルに依存しず、デバイス間通信なしでローカルに動作する。
標準画像分類ベンチマークの大規模な実験により,本フレームワークは,プルーニング率に比例したトレーニング遅延とエネルギー消費のほぼ直線的な削減を実現し,モデル精度の劣化を無視できることを示した。
これらの結果は、資源制約されたモバイルエッジデバイス上での学習の持続性とスケーラビリティを高めるために、データセットプルーニングを不可欠かつ補完的なパラダイムとして評価する。
関連論文リスト
- On-device edge learning for IoT data streams: a survey [1.7186863539230333]
本稿では,ニューラルネットワーク(NN)と決定木(DT)の文脈におけるデバイス上でのトレーニングのための連続的学習手法について検討する。
データアーキテクチャ(バッチ対ストリーム)やネットワーク容量(クラウド対エッジ)といった重要な制約を強調します。
調査では、リソース制約のあるエッジデバイスにディープラーニングをデプロイする際の課題について詳述している。
論文 参考訳(メタデータ) (2025-02-25T02:41:23Z) - Center-Sensitive Kernel Optimization for Efficient On-Device Incremental Learning [88.78080749909665]
現在のオンデバイストレーニング手法は、破滅的な忘れを考慮せずに、効率的なトレーニングにのみ焦点をあてている。
本稿では,単純だが効果的なエッジフレンドリーなインクリメンタル学習フレームワークを提案する。
本手法は,メモリの削減と近似計算により,平均精度38.08%の高速化を実現する。
論文 参考訳(メタデータ) (2024-06-13T05:49:29Z) - Filling the Missing: Exploring Generative AI for Enhanced Federated
Learning over Heterogeneous Mobile Edge Devices [72.61177465035031]
ローカルデータのFIMI(FIlling the MIssing)部分を活用することにより,これらの課題に対処する,AIを活用した創発的なフェデレーション学習を提案する。
実験の結果,FIMIはデバイス側エネルギーの最大50%を節約し,目標とするグローバルテスト精度を達成できることがわかった。
論文 参考訳(メタデータ) (2023-10-21T12:07:04Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - A Deep-Learning Intelligent System Incorporating Data Augmentation for
Short-Term Voltage Stability Assessment of Power Systems [9.299576471941753]
本稿では,電力系統のSTVSAにデータ拡張を取り入れた新しいディープラーニング知能システムを提案する。
半教師付きクラスタ学習を利用して、ラベル付きサンプルを元の小さなデータセットで取得する。
条件付き最小二乗生成逆数ネットワーク(LSGAN)ベースのデータ拡張を導入し、元のデータセットを拡張する。
論文 参考訳(メタデータ) (2021-12-05T11:40:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。