論文の概要: Boosted Trees on a Diet: Compact Models for Resource-Constrained Devices
- arxiv url: http://arxiv.org/abs/2510.26557v1
- Date: Thu, 30 Oct 2025 14:47:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.864314
- Title: Boosted Trees on a Diet: Compact Models for Resource-Constrained Devices
- Title(参考訳): 食生活における高木:資源制約装置のコンパクトモデル
- Authors: Jan Stenkamp, Nina Herrmann, Benjamin Karic, Stefan Oehmcke, Fabian Gieseke,
- Abstract要約: 本稿では、軽量機械学習モデルの必要性の高まりに対処するため、強化された決定木に対する圧縮スキームを提案する。
また,LightGBMモデルと比較して,圧縮比が4-16倍のモデルが同じ性能を示した。
この機能は、リモート監視、エッジ分析、分離された環境や電力制限のある環境でのリアルタイム意思決定など、幅広いIoTアプリケーションへの扉を開く。
- 参考スコア(独自算出の注目度): 1.2483467287071346
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Deploying machine learning models on compute-constrained devices has become a key building block of modern IoT applications. In this work, we present a compression scheme for boosted decision trees, addressing the growing need for lightweight machine learning models. Specifically, we provide techniques for training compact boosted decision tree ensembles that exhibit a reduced memory footprint by rewarding, among other things, the reuse of features and thresholds during training. Our experimental evaluation shows that models achieved the same performance with a compression ratio of 4-16x compared to LightGBM models using an adapted training process and an alternative memory layout. Once deployed, the corresponding IoT devices can operate independently of constant communication or external energy supply, and, thus, autonomously, requiring only minimal computing power and energy. This capability opens the door to a wide range of IoT applications, including remote monitoring, edge analytics, and real-time decision making in isolated or power-limited environments.
- Abstract(参考訳): 計算制約のあるデバイスに機械学習モデルをデプロイすることは、現代のIoTアプリケーションの重要な構成要素となっている。
本研究は,軽量機械学習モデルの必要性の高まりに対処する,強化された決定木に対する圧縮スキームを提案する。
具体的には、トレーニング中の特徴や閾値の再利用など、メモリフットプリントの削減を図ったコンパクト化決定木アンサンブルのトレーニング技術を提供する。
実験により, 適応学習プロセスと代替メモリレイアウトを用いたLightGBMモデルと比較して, 4-16倍の圧縮比で同じ性能を示した。
一度デプロイされると、対応するIoTデバイスは、一定の通信や外部エネルギー供給とは独立して動作し、従って自律的に、最小限の計算能力とエネルギーしか必要としない。
この機能は、リモート監視、エッジ分析、分離された環境や電力制限のある環境でのリアルタイム意思決定など、幅広いIoTアプリケーションへの扉を開く。
関連論文リスト
- Split Knowledge Distillation for Large Models in IoT: Architecture, Challenges, and Solutions [16.25411682771788]
大規模モデル(LM)はIoT(Internet of Things)システムにおいて大きな可能性を秘めており、インテリジェントな音声アシスタント、予測保守、医療監視などのアプリケーションを可能にする。
エッジサーバ上でのLMのトレーニングは、データプライバシの懸念を高め、IoTデバイスに直接デプロイすることは、計算リソースとメモリリソースの制限によって制限される。
そこで本研究では,LMをIoTデバイスのより小型でデプロイ可能なバージョンに効率よく蒸留し,生データをローカルに残すための分割知識蒸留フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-17T02:31:31Z) - E-QUARTIC: Energy Efficient Edge Ensemble of Convolutional Neural Networks for Resource-Optimized Learning [9.957458251671486]
Convolutional Neural Networks(CNN)のようなモデルを組み立てると、メモリとコンピューティングのオーバーヘッドが高くなり、組み込みシステムへのデプロイが妨げられる。
人工知能(AI)をベースとした組込みシステムを対象としたCNNのアンサンブルを構築するための,新しいエネルギー効率の良いエッジ組立フレームワークであるE-QUARTICを提案する。
論文 参考訳(メタデータ) (2024-09-12T19:30:22Z) - Training Neural Networks from Scratch with Parallel Low-Rank Adapters [46.764982726136054]
計算ノード間の複数の低ランクヘッドの並列トレーニングを実現するために設計された,新しい双方向最適化アルゴリズムである LoRA-the-Explorer (LTE) を導入する。
我々のアプローチには、様々なビジョンデータセットを用いたビジョントランスフォーマーの広範な実験が含まれており、LTEが標準の事前トレーニングと競合していることが示されている。
論文 参考訳(メタデータ) (2024-02-26T18:55:13Z) - EVE: Environmental Adaptive Neural Network Models for Low-power Energy
Harvesting System [8.16411986220709]
環境からエネルギーを回収するエネルギー収穫技術は、これらのデバイスを動かすための電池に代わる有望な選択肢だ。
本稿では,エネルギ収穫用IoTデバイスを共有重み付きで検索する機械学習フレームワークであるEVEを提案する。
実験結果から、EVEが生成するニューラルネットワークモデルは、プルーニングや共有重みのないベースラインモデルよりも平均2.5倍高速であることがわかった。
論文 参考訳(メタデータ) (2022-07-14T20:53:46Z) - Real-time Neural-MPC: Deep Learning Model Predictive Control for
Quadrotors and Agile Robotic Platforms [59.03426963238452]
モデル予測制御パイプライン内の動的モデルとして,大規模で複雑なニューラルネットワークアーキテクチャを効率的に統合するフレームワークであるReal-time Neural MPCを提案する。
ニューラルネットワークを使わずに、最先端のMPCアプローチと比較して、位置追跡誤差を最大82%削減することで、実世界の問題に対する我々のフレームワークの実現可能性を示す。
論文 参考訳(メタデータ) (2022-03-15T09:38:15Z) - Computational Intelligence and Deep Learning for Next-Generation
Edge-Enabled Industrial IoT [51.68933585002123]
エッジ対応産業用IoTネットワークにおける計算知能とディープラーニング(DL)の展開方法について検討する。
本稿では,新しいマルチエグジットベースフェデレーションエッジ学習(ME-FEEL)フレームワークを提案する。
特に、提案されたME-FEELは、非常に限られたリソースを持つ産業用IoTネットワークにおいて、最大32.7%の精度を達成することができる。
論文 参考訳(メタデータ) (2021-10-28T08:14:57Z) - Differentiable Network Pruning for Microcontrollers [14.864940447206871]
本稿では,畳み込みニューラルネットワークのための可変構造型ネットワークプルーニング法を提案する。
モデル固有のリソース使用量とパラメータ重要度フィードバックを統合し、高度に圧縮されかつ正確な分類モデルを得る。
論文 参考訳(メタデータ) (2021-10-15T20:26:15Z) - LCS: Learning Compressible Subspaces for Adaptive Network Compression at
Inference Time [57.52251547365967]
本稿では,ニューラルネットワークの「圧縮可能な部分空間」を訓練する手法を提案する。
構造的・非構造的空間に対する推定時間における微粒な精度・効率のトレードオフを任意に達成するための結果を示す。
我々のアルゴリズムは、可変ビット幅での量子化にまで拡張し、個別に訓練されたネットワークと同等の精度を実現する。
論文 参考訳(メタデータ) (2021-10-08T17:03:34Z) - Model of the Weak Reset Process in HfOx Resistive Memory for Deep
Learning Frameworks [0.6745502291821955]
酸化ハフニウムRRAMにおける弱いRESET過程のモデルを提案する。
私たちはこのモデルをPyTorchディープラーニングフレームワークに統合します。
我々はこのツールを用いて、MNIST手書き文字認識タスクのためのバイナリニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2021-07-02T08:50:35Z) - Learning Discrete Energy-based Models via Auxiliary-variable Local
Exploration [130.89746032163106]
離散構造データに対する条件付きおよび非条件付きEMMを学習するための新しいアルゴリズムであるALOEを提案する。
エネルギー関数とサンプリング器は、新しい変分型電力繰り返しにより効率よく訓練できることを示す。
本稿では、ソフトウェアテストのためのエネルギーモデルガイド付ファジィザについて、libfuzzerのようなよく設計されたファジィエンジンに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2020-11-10T19:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。