論文の概要: Hidden costs for inference with deep network on embedded system devices
- arxiv url: http://arxiv.org/abs/2601.01698v1
- Date: Mon, 05 Jan 2026 00:18:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.654159
- Title: Hidden costs for inference with deep network on embedded system devices
- Title(参考訳): 組み込みシステムデバイスにおけるディープ・ネットワークを用いた推論のための隠れコスト
- Authors: Chankyu Lee, Woohyun Choi, Sangwook Park,
- Abstract要約: 本研究では,組込みシステム環境下での各種深層学習モデルの推論性能を評価する。
その結果,組込みシステムにおけるリアルタイム実行のためのディープラーニングモデルの最適化において,テンソル間の追加計算を考慮することの重要性を強調した。
- 参考スコア(独自算出の注目度): 7.268322987525604
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study evaluates the inference performance of various deep learning models under an embedded system environment. In previous works, Multiply-Accumulate operation is typically used to measure computational load of a deep model. According to this study, however, this metric has a limitation to estimate inference time on embedded devices. This paper poses the question of what aspects are overlooked when expressed in terms of Multiply-Accumulate operations. In experiments, an image classification task is performed on an embedded system device using the CIFAR-100 dataset to compare and analyze the inference times of ten deep models with the theoretically calculated Multiply-Accumulate operations for each model. The results highlight the importance of considering additional computations between tensors when optimizing deep learning models for real-time performing in embedded systems.
- Abstract(参考訳): 本研究では,組込みシステム環境下での各種深層学習モデルの推論性能を評価する。
従来の研究では、乗算演算は一般にディープモデルの計算負荷を測定するために用いられる。
しかし,本研究では,組込みデバイス上での推定時間に制限がある。
本稿では,マルチプライ・アキュメトリの操作で表される場合,どのような側面が見過ごされるのかという問題を提起する。
実験では、CIFAR-100データセットを用いて組込みシステム装置上で画像分類タスクを行い、理論計算した各モデルの乗算演算と10の深度モデルの推論時間を比較し解析する。
その結果,組込みシステムにおけるリアルタイム実行のためのディープラーニングモデルの最適化において,テンソル間の計算量の追加を検討することの重要性を強調した。
関連論文リスト
- Efficient Machine Unlearning via Influence Approximation [75.31015485113993]
インフルエンサーベースのアンラーニングは、個別のトレーニングサンプルがモデルパラメータに与える影響を再トレーニングせずに推定する顕著なアプローチとして現れてきた。
本稿では,暗記(増分学習)と忘れ(未学習)の理論的関連性を確立する。
本稿では、インフルエンス近似アンラーニングアルゴリズムを導入し、インクリメンタルな視点から効率的なマシンアンラーニングを行う。
論文 参考訳(メタデータ) (2025-07-31T05:34:27Z) - Exploring Training and Inference Scaling Laws in Generative Retrieval [50.82554729023865]
生成検索は、検索を自己回帰生成タスクとして再構成し、大きな言語モデルがクエリから直接ターゲット文書を生成する。
生成的検索におけるトレーニングと推論のスケーリング法則を体系的に検討し,モデルのサイズ,トレーニングデータスケール,推論時間計算が協調的に性能に与える影響について検討した。
論文 参考訳(メタデータ) (2025-03-24T17:59:03Z) - Revisiting SMoE Language Models by Evaluating Inefficiencies with Task Specific Expert Pruning [78.72226641279863]
SMOE(Sparse Mixture of Expert)モデルは、言語モデリングにおける高密度モデルに代わるスケーラブルな代替品として登場した。
本研究は,SMoEアーキテクチャの設計に関する意思決定を行うために,タスク固有のモデルプルーニングについて検討する。
適応型タスク対応プルーニング手法 UNCURL を導入し,MoE 層当たりの専門家数をオフラインで学習する手法を提案する。
論文 参考訳(メタデータ) (2024-09-02T22:35:03Z) - A Comparative Study of Machine Learning Models Predicting Energetics of Interacting Defects [5.574191640970887]
本稿では,相互作用する欠陥のあるシステムの自由エネルギー変化を予測する3つの方法の比較研究を行う。
その結果,この限られたデータセットであっても,クラスタ展開モデルによって正確なエネルギー予測が達成できることが示唆された。
本研究では,不完全な表面システムに機械学習を適用した予備評価を行う。
論文 参考訳(メタデータ) (2024-03-20T02:15:48Z) - Robustness and Generalization Performance of Deep Learning Models on
Cyber-Physical Systems: A Comparative Study [71.84852429039881]
調査は、センサーの故障やノイズなど、様々な摂動を扱うモデルの能力に焦点を当てている。
我々は,これらのモデルの一般化と伝達学習能力を,アウト・オブ・ディストリビューション(OOD)サンプルに公開することによって検証する。
論文 参考訳(メタデータ) (2023-06-13T12:43:59Z) - A Generic Performance Model for Deep Learning in a Distributed
Environment [0.7829352305480285]
本稿では,アプリケーション実行時間の汎用表現を用いた分散環境におけるアプリケーションの汎用性能モデルを提案する。
提案手法を3つのディープラーニングフレームワーク(MXnetとPytorch)で評価した。
論文 参考訳(メタデータ) (2023-05-19T13:30:34Z) - Leveraging the structure of dynamical systems for data-driven modeling [111.45324708884813]
トレーニングセットとその構造が長期予測の品質に与える影響を考察する。
トレーニングセットのインフォームドデザインは,システムの不変性と基盤となるアトラクションの構造に基づいて,結果のモデルを大幅に改善することを示す。
論文 参考訳(メタデータ) (2021-12-15T20:09:20Z) - Using Graph Neural Networks to model the performance of Deep Neural
Networks [2.1151356984322307]
グラフ表現を取り入れた新しいパフォーマンスモデルを開発した。
実験により,HalideモデルとTVMモデルと比較すると,予測誤差が7:75x,12x減少した。
論文 参考訳(メタデータ) (2021-08-27T20:20:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。