論文の概要: When Smaller Wins: Dual-Stage Distillation and Pareto-Guided Compression of Liquid Neural Networks for Edge Battery Prognostics
- arxiv url: http://arxiv.org/abs/2601.06227v1
- Date: Fri, 09 Jan 2026 10:20:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.700444
- Title: When Smaller Wins: Dual-Stage Distillation and Pareto-Guided Compression of Liquid Neural Networks for Edge Battery Prognostics
- Title(参考訳): 2段蒸留とパレート誘導圧縮によるエッジバッテリ診断のための液体ニューラルネットワークの小型化
- Authors: Dhivya Dharshini Kannan, Wei Li, Zhang Wei, Jianbiao Wang, Zhi Wei Seh, Man-Fai Ng,
- Abstract要約: 本稿では, 液状ニューラルネットワークを二段蒸留したDLNetについて述べる。
これは、高容量モデルを、バッテリーの健康予測のためにコンパクトでエッジにデプロイ可能なモデルに変える。
- 参考スコア(独自算出の注目度): 3.715761537873481
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Battery management systems increasingly require accurate battery health prognostics under strict on-device constraints. This paper presents DLNet, a practical framework with dual-stage distillation of liquid neural networks that turns a high-capacity model into compact and edge-deployable models for battery health prediction. DLNet first applies Euler discretization to reformulate liquid dynamics for embedded compatibility. It then performs dual-stage knowledge distillation to transfer the teacher model's temporal behavior and recover it after further compression. Pareto-guided selection under joint error-cost objectives retains student models that balance accuracy and efficiency. We evaluate DLNet on a widely used dataset and validate real-device feasibility on an Arduino Nano 33 BLE Sense using int8 deployment. The final deployed student achieves a low error of 0.0066 when predicting battery health over the next 100 cycles, which is 15.4% lower than the teacher model. It reduces the model size from 616 kB to 94 kB with 84.7% reduction and takes 21 ms per inference on the device. These results support a practical smaller wins observation that a small model can match or exceed a large teacher for edge-based prognostics with proper supervision and selection. Beyond batteries, the DLNet framework can extend to other industrial analytics tasks with strict hardware constraints.
- Abstract(参考訳): バッテリー管理システムは、デバイス上の厳格な制約の下で、正確なバッテリーの健康診断を必要としている。
本稿では,高容量モデルから小型・エッジ展開可能なモデルに転換し,バッテリの健康予測を行うための,液状ニューラルネットワークの2段階蒸留による実用的フレームワークDLNetを提案する。
DLNetは、まずEulerの離散化を適用して、組込み互換性のために液体力学を再構成する。
その後、2段階の知識蒸留を行い、教師モデルの時間的振る舞いを伝達し、さらなる圧縮後に回復する。
共同エラーコストの目標の下でのパレート誘導選択は、正確性と効率のバランスをとる学生モデルを保持する。
Int8 デプロイメントを用いた Arduino Nano 33 BLE Sense 上で,DLNet を広く使用されているデータセット上で評価し,実デバイスの実現可能性を検証する。
最終配備学生は、次の100サイクルでバッテリーの健康を予測する際に0.0066という低い誤差を達成し、これは教師モデルよりも15.4%低い。
モデルサイズを616kBから94kBに減らし、84.7%を減らし、推論に21msを要する。
これらの結果は、小さなモデルが適切な監督と選択を伴うエッジベースの予後学の大規模教師と一致したり、超えたりできるという現実的な小さなウインズ観測を支持している。
DLNetフレームワークはバッテリー以外にも、厳格なハードウェア制約で他の産業分析タスクにも拡張できる。
関連論文リスト
- Multi-objective hybrid knowledge distillation for efficient deep learning in smart agriculture [0.05599792629509228]
本研究では,軽量ながら高性能な畳み込みニューラルネットワークを開発するためのハイブリッド知識蒸留フレームワークを提案する。
提案手法は,ResNet18教師ネットワークの指導のもと,逆残差ブロックと密接な接続性を組み合わせた,カスタマイズされた学生モデルを設計する。
論文 参考訳(メタデータ) (2025-12-23T15:33:55Z) - Less Is More: An Explainable AI Framework for Lightweight Malaria Classification [0.0]
この研究は、複雑なニューラルネットワークがマラリアの単純な二分分類タスクに不可欠であるかどうかを論じる。
本稿では,透過的で再現性があり,低計算機械学習アプローチであるExptracted Morphological Feature Engineered (EMFE)パイプラインを紹介する。
論文 参考訳(メタデータ) (2025-11-22T14:46:59Z) - Deploying and Evaluating Multiple Deep Learning Models on Edge Devices for Diabetic Retinopathy Detection [0.0]
糖尿病網膜症(DR)は世界中で約34.6%の糖尿病患者に影響を与えており、2045年までに2億2200万人に達すると予測されている。
従来のDR診断は、時間と資源を集中的に消費する網膜基底画像のマニュアル検査に依存している。
本研究では、エッジデバイス上でリアルタイムDRのための複数のディープラーニングモデルをデプロイするために、Edge Impulseを用いた新しいソリューションを提案する。
論文 参考訳(メタデータ) (2025-06-14T13:53:45Z) - Semantic Knowledge Distillation for Onboard Satellite Earth Observation Image Classification [28.08042498882207]
本研究では,資源制約条件下での効率的な地球観測(EO)画像分類(IC)に適した動的加重知識蒸留(KD)フレームワークを提案する。
我々のフレームワークは,信頼性の高い分類作業に必要な厳密な信頼しきい値に固執することにより,軽量な学生モデルの精度,精度,リコールを90%以上越えることを可能にする。
ResNet8は97.5%のパラメータの削減、96.7%のFLOPの削減、86.2%の消費電力削減、63.5%のMobileViTの推論速度向上など、大幅な効率向上を実現している。
論文 参考訳(メタデータ) (2024-10-31T21:13:40Z) - NeuralFuse: Learning to Recover the Accuracy of Access-Limited Neural Network Inference in Low-Voltage Regimes [50.00272243518593]
ディープラーニング(Deep Neural Network, DNN)は、機械学習においてユビキタスになったが、そのエネルギー消費は問題の多いままである。
我々は低電圧状態におけるエネルギー精度のトレードオフを処理する新しいアドオンモジュールであるNeuralFuseを開発した。
1%のビットエラー率で、NeuralFuseはアクセスエネルギーを最大24%削減し、精度を最大57%向上させることができる。
論文 参考訳(メタデータ) (2023-06-29T11:38:22Z) - A Light-weight Deep Learning Model for Remote Sensing Image
Classification [70.66164876551674]
リモートセンシング画像分類(RSIC)のための高性能で軽量なディープラーニングモデルを提案する。
NWPU-RESISC45ベンチマークで広範な実験を行うことで、提案した教師学生モデルは最先端システムより優れている。
論文 参考訳(メタデータ) (2023-02-25T09:02:01Z) - Quantized Neural Networks for Low-Precision Accumulation with Guaranteed
Overflow Avoidance [68.8204255655161]
本稿では,推定時のアキュムレータの精度を下げる際に,数値オーバーフローを回避する量子化学習アルゴリズムを提案する。
本手法は,浮動小数点点ベースラインに対するモデル精度を維持しつつ,アキュムレータの精度を低減できることを示す。
論文 参考訳(メタデータ) (2023-01-31T02:46:57Z) - Atrial Fibrillation Detection Using Weight-Pruned, Log-Quantised
Convolutional Neural Networks [25.160063477248904]
心電図信号から心房細動を検出する畳み込みニューラルネットワークモデルを開発した。
このモデルは、限られた可変長の入力データで訓練されているにもかかわらず、高い性能を示す。
最終モデルは91.1%のモデル圧縮比を達成し、高いモデル精度は91.7%、損失は1%未満であった。
論文 参考訳(メタデータ) (2022-06-14T11:47:04Z) - LCS: Learning Compressible Subspaces for Adaptive Network Compression at
Inference Time [57.52251547365967]
本稿では,ニューラルネットワークの「圧縮可能な部分空間」を訓練する手法を提案する。
構造的・非構造的空間に対する推定時間における微粒な精度・効率のトレードオフを任意に達成するための結果を示す。
我々のアルゴリズムは、可変ビット幅での量子化にまで拡張し、個別に訓練されたネットワークと同等の精度を実現する。
論文 参考訳(メタデータ) (2021-10-08T17:03:34Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - DisCo: Remedy Self-supervised Learning on Lightweight Models with
Distilled Contrastive Learning [94.89221799550593]
SSL(Self-supervised representation Learning)はコミュニティから広く注目を集めている。
最近の研究では、モデルサイズが小さくなれば、その性能は低下すると主張している。
単純かつ効果的な蒸留コントラスト学習(DisCo)を提案し、問題を大きなマージンで緩和します。
論文 参考訳(メタデータ) (2021-04-19T08:22:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。