論文の概要: Recommending Pre-Trained Models for IoT Devices
- arxiv url: http://arxiv.org/abs/2412.18972v1
- Date: Wed, 25 Dec 2024 19:19:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:29:33.932513
- Title: Recommending Pre-Trained Models for IoT Devices
- Title(参考訳): IoTデバイスのための事前トレーニングモデルの再検討
- Authors: Parth V. Patil, Wenxin Jiang, Huiyun Peng, Daniel Lugo, Kelechi G. Kalu, Josh LeBlanc, Lawrence Smith, Hyeonwoo Heo, Nathanael Aou, James C. Davis,
- Abstract要約: PTM(Pre-trained Model)が利用可能になったことで、広範なトレーニングの必要性を減らし、アプリケーション全体の機械学習のデプロイが高速化された。
しかしながら、各モデルの適合性を評価するにはコストがかかりすぎることが多い。LogME、LEEP、ModelSpiderといったアプローチは、徹底的なチューニングなしにタスクの妥当性を見積もることで、モデルの選定を効率化する。
本稿では、ハードウェア制約に関する現在のモデルレコメンデーション手法の限界を特定し、PTM選択のための新しいハードウェア対応手法を提案する。
- 参考スコア(独自算出の注目度): 3.1438343376458837
- License:
- Abstract: The availability of pre-trained models (PTMs) has enabled faster deployment of machine learning across applications by reducing the need for extensive training. Techniques like quantization and distillation have further expanded PTM applicability to resource-constrained IoT hardware. Given the many PTM options for any given task, engineers often find it too costly to evaluate each model's suitability. Approaches such as LogME, LEEP, and ModelSpider help streamline model selection by estimating task relevance without exhaustive tuning. However, these methods largely leave hardware constraints as future work-a significant limitation in IoT settings. In this paper, we identify the limitations of current model recommendation approaches regarding hardware constraints and introduce a novel, hardware-aware method for PTM selection. We also propose a research agenda to guide the development of effective, hardware-conscious model recommendation systems for IoT applications.
- Abstract(参考訳): PTM(Pre-trained Model)が利用可能になったことで、広範なトレーニングの必要性を減らし、アプリケーション全体の機械学習のデプロイが高速化された。
量子化や蒸留といった技術は、リソース制約のあるIoTハードウェアへのPTM適用をさらに拡大した。
任意のタスクに対する多くのPTMオプションを考えると、各モデルの適合性を評価するのにコストがかかりすぎることがしばしばある。
LogME、LEEP、ModelSpiderといったアプローチは、徹底的なチューニングなしにタスクの妥当性を見積もることで、モデルのセレクションを効率化する。
しかし、これらの手法は、IoT設定における今後の作業の大幅な制限として、ハードウェアの制約をほとんど残している。
本稿では、ハードウェア制約に関する現在のモデルレコメンデーション手法の限界を特定し、PTM選択のための新しいハードウェア対応手法を提案する。
また、IoTアプリケーションのための効果的なハードウェア指向モデルレコメンデーションシステムの開発を導くための研究課題も提案する。
関連論文リスト
- Fine-Tuning and Deploying Large Language Models Over Edges: Issues and Approaches [64.42735183056062]
大規模言語モデル(LLM)は、特殊モデルから多目的基礎モデルへと移行してきた。
LLMは印象的なゼロショット能力を示すが、ローカルデータセットとデプロイメントのための重要なリソースを微調整する必要がある。
論文 参考訳(メタデータ) (2024-08-20T09:42:17Z) - DTMM: Deploying TinyML Models on Extremely Weak IoT Devices with Pruning [12.014366791775027]
DTMMは、弱いIoTデバイス上で機械学習モデルの効率的なデプロイと実行のために設計されたライブラリである。
DTMMを設計する動機は、小さな機械学習(TinyML)の新たな分野から来ている。
本稿では, プルーニング単位の選択, 実行前プルーニング最適化, 実行時アクセラレーション, 実行後低コストストレージによるDTMMを提案し, プルーニングモデルの効率的なデプロイと実行のギャップを埋める。
論文 参考訳(メタデータ) (2024-01-17T09:01:50Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - When Parameter-efficient Tuning Meets General-purpose Vision-language
Models [65.19127815275307]
PETALは、一意のモード近似技術によって達成される全パラメータの0.5%しか必要とせず、トレーニングプロセスに革命をもたらす。
実験の結果,PETALは現状の手法をほとんどのシナリオで上回るだけでなく,完全な微調整モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-12-16T17:13:08Z) - Modeling Time-Series and Spatial Data for Recommendations and Other
Applications [1.713291434132985]
我々は,CTESデータの品質が低いために発生する可能性のある問題をレコメンデーションシステムに入力する。
CTESデータの質を向上させるため、時間的シーケンスにおける欠落イベントを克服する根本的な問題に対処する。
我々は、大規模CTES検索と人間の活動予測のためのソリューションの設計にそれらの能力を拡張した。
論文 参考訳(メタデータ) (2022-12-25T09:34:15Z) - Multi-Component Optimization and Efficient Deployment of Neural-Networks
on Resource-Constrained IoT Hardware [4.6095200019189475]
本稿では,エンドツーエンドのマルチコンポーネントモデル最適化シーケンスを提案し,その実装をオープンソース化する。
最適化コンポーネントは, (i) 12.06 x の圧縮, (ii) 0.13% から 0.27% の精度, (iii) 単位推定の桁数が 0.06 ms のモデルを生成することができる。
論文 参考訳(メタデータ) (2022-04-20T13:30:04Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - Computational Intelligence and Deep Learning for Next-Generation
Edge-Enabled Industrial IoT [51.68933585002123]
エッジ対応産業用IoTネットワークにおける計算知能とディープラーニング(DL)の展開方法について検討する。
本稿では,新しいマルチエグジットベースフェデレーションエッジ学習(ME-FEEL)フレームワークを提案する。
特に、提案されたME-FEELは、非常に限られたリソースを持つ産業用IoTネットワークにおいて、最大32.7%の精度を達成することができる。
論文 参考訳(メタデータ) (2021-10-28T08:14:57Z) - Evaluating model-based planning and planner amortization for continuous
control [79.49319308600228]
我々は、モデル予測制御(MPC)と学習モデルとモデルフリーポリシー学習を組み合わせたハイブリッドアプローチを採っている。
モデルフリーエージェントは高いDoF制御問題においても強いベースラインであることがわかった。
モデルに基づくプランナを,パフォーマンスを損なうことなく,計画が損なわれるようなポリシーに置き換えることが可能であることを示す。
論文 参考訳(メタデータ) (2021-10-07T12:00:40Z) - Prune2Edge: A Multi-Phase Pruning Pipelines to Deep Ensemble Learning in
IIoT [0.0]
IIoTデバイス上での学習をアンサンブルするためのエッジベースのマルチフェーズ・プルーニングパイプラインを提案する。
第1フェーズでは、様々なプルーンドモデルのアンサンブルを生成し、次いで整数量子化を適用し、次にクラスタリングに基づく手法を用いて生成されたアンサンブルをプルークする。
提案手法は,ベースラインモデルの予測可能性レベルより優れていた。
論文 参考訳(メタデータ) (2020-04-09T17:44:34Z) - LIMITS: Lightweight Machine Learning for IoT Systems with Resource
Limitations [8.647853543335662]
我々は、IoTシステムのための新しいオープンソースのフレームワークLIghtweight Machine Learning(LIMITS)を紹介する。
LIMITSは、ターゲットIoTプラットフォームの実際のコンパイルツールチェーンを明示的に考慮した、プラットフォーム・イン・ザ・ループのアプローチを適用している。
LIMITSを携帯電話データレート予測と無線車種分類に応用し,その妥当性を検証した。
論文 参考訳(メタデータ) (2020-01-28T06:34:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。