論文の概要: Boosted Training of Lightweight Early Exits for Optimizing CNN Image Classification Inference
- arxiv url: http://arxiv.org/abs/2509.08318v1
- Date: Wed, 10 Sep 2025 06:47:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.32904
- Title: Boosted Training of Lightweight Early Exits for Optimizing CNN Image Classification Inference
- Title(参考訳): CNN画像分類推論の最適化のための軽量早期エクササイズの強化
- Authors: Yehudit Aperstein, Alexander Apartsin,
- Abstract要約: 我々は、分岐学習と推論時データ分布を整合させるシーケンシャルなトレーニング手法を導入する。
ResNet18バックボーンによるCINIC-10データセットの実験では、BTS-EEが非ブートトレーニングを一貫して上回っていることが示されている。
これらの結果は,産業検査,組込みビジョン,UAVに基づく監視などの応用において,実用的効率の向上をもたらす。
- 参考スコア(独自算出の注目度): 47.027290803102666
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real-time image classification on resource-constrained platforms demands inference methods that balance accuracy with strict latency and power budgets. Early-exit strategies address this need by attaching auxiliary classifiers to intermediate layers of convolutional neural networks (CNNs), allowing "easy" samples to terminate inference early. However, conventional training of early exits introduces a covariance shift: downstream branches are trained on full datasets, while at inference they process only the harder, non-exited samples. This mismatch limits efficiency--accuracy trade-offs in practice. We introduce the Boosted Training Scheme for Early Exits (BTS-EE), a sequential training approach that aligns branch training with inference-time data distributions. Each branch is trained and calibrated before the next, ensuring robustness under selective inference conditions. To further support embedded deployment, we propose a lightweight branch architecture based on 1D convolutions and a Class Precision Margin (CPM) calibration method that enables per-class threshold tuning for reliable exit decisions. Experiments on the CINIC-10 dataset with a ResNet18 backbone demonstrate that BTS-EE consistently outperforms non-boosted training across 64 configurations, achieving up to 45 percent reduction in computation with only 2 percent accuracy degradation. These results expand the design space for deploying CNNs in real-time image processing systems, offering practical efficiency gains for applications such as industrial inspection, embedded vision, and UAV-based monitoring.
- Abstract(参考訳): リソース制約のあるプラットフォーム上でのリアルタイム画像分類では、精度と厳格なレイテンシと電力予算のバランスをとる推論手法が要求される。
早期排他戦略は、中間層である畳み込みニューラルネットワーク(CNN)に補助分類器をアタッチすることで、このニーズに対処する。
下流のブランチは完全なデータセットでトレーニングされ、推論時には、より難しく、非興奮的なサンプルのみを処理する。
このミスマッチは効率-精度のトレードオフを実際に制限します。
本稿では、分岐トレーニングと推論時データ分散を整合させる逐次トレーニングアプローチであるBoosted Training Scheme for Early Exits(BTS-EE)を紹介する。
各ブランチは次にトレーニングされ、キャリブレーションされ、選択的な推論条件下で堅牢性を確保する。
本稿では,1次元畳み込みに基づく軽量分岐アーキテクチャとクラス精度マージン(CPM)キャリブレーション手法を提案する。
ResNet18のバックボーンによるCINIC-10データセットの実験では、BTS-EEは64構成で非ブートトレーニングを一貫して上回り、2%の精度で最大45%の計算削減を実現している。
これらの結果は、CNNをリアルタイム画像処理システムにデプロイするための設計空間を拡張し、産業検査、組み込みビジョン、UAVベースの監視などのアプリケーションに実用的な効率向上をもたらす。
関連論文リスト
- Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - Boosting Low-Data Instance Segmentation by Unsupervised Pre-training
with Saliency Prompt [103.58323875748427]
この研究は、低データ体制のための新しい教師なし事前学習ソリューションを提供する。
近年のPrompting技術の成功に触発されて,QEISモデルを強化した新しい事前学習手法を導入する。
実験結果から,本手法は3つのデータセット上でのいくつかのQEISモデルを大幅に向上させることが示された。
論文 参考訳(メタデータ) (2023-02-02T15:49:03Z) - Anticipate, Ensemble and Prune: Improving Convolutional Neural Networks
via Aggregated Early Exits [7.967995669387532]
我々は,早期出口の重み付けアンサンブルに基づく新たなトレーニング手法であるPrecipate,Ensemble and Prune(AEP)を提示する。
AEPは従来のトレーニングよりも平均精度を最大15%向上させることができる。
論文 参考訳(メタデータ) (2023-01-28T11:45:11Z) - DE-CROP: Data-efficient Certified Robustness for Pretrained Classifiers [21.741026088202126]
そこで本研究では,いくつかのトレーニングサンプルを用いて,事前学習したモデルのロバスト性を証明する新しい手法を提案する。
提案手法は,各トレーニングサンプルに対応するクラス境界および補間標本を生成する。
複数のベンチマークデータセットのベースラインに対する大幅な改善と、課題のあるブラックボックス設定の下でも同様のパフォーマンスを報告しています。
論文 参考訳(メタデータ) (2022-10-17T10:41:18Z) - Learning from Data with Noisy Labels Using Temporal Self-Ensemble [11.245833546360386]
ディープニューラルネットワーク(DNN)はノイズラベルを記憶する膨大な能力を持つ。
現在最先端の手法では、損失の少ないサンプルを用いて二重ネットワークを訓練するコトレーニング方式が提案されている。
本稿では,単一のネットワークのみをトレーニングすることで,シンプルで効果的なロバストトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T08:16:31Z) - Efficient Augmentation for Imbalanced Deep Learning [8.38844520504124]
本研究では、畳み込みニューラルネットワークの内部表現である不均衡画像データについて検討する。
モデルの特徴埋め込みとテストセットの一般化ギャップを測定し、マイノリティクラスではそのギャップが広いことを示す。
この洞察により、不均衡なデータのための効率的な3相CNNトレーニングフレームワークを設計できる。
論文 参考訳(メタデータ) (2022-07-13T09:43:17Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - FracTrain: Fractionally Squeezing Bit Savings Both Temporally and Spatially for Efficient DNN Training [62.932299614630985]
本稿では, アクティベーション, ウェイト, 勾配の精度を徐々に向上させる, プログレッシブ分数量子化を統合したFracTrainを提案する。
FracTrainはDNNトレーニングの計算コストとハードウェア量子化エネルギー/レイテンシを削減し、同等以上の精度(-0.12%+1.87%)を達成する。
論文 参考訳(メタデータ) (2020-12-24T05:24:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。