論文の概要: Frugal Machine Learning for Energy-efficient, and Resource-aware Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2506.01869v1
- Date: Mon, 02 Jun 2025 16:56:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:34.616928
- Title: Frugal Machine Learning for Energy-efficient, and Resource-aware Artificial Intelligence
- Title(参考訳): エネルギー効率・資源認識人工知能のためのフルーガル機械学習
- Authors: John Violos, Konstantina-Christina Diamanti, Ioannis Kompatsiaris, Symeon Papadopoulos,
- Abstract要約: FML(Frugal Machine Learning)とは、機械学習(ML)モデルを設計するプラクティスである。
FMLの戦略は、入力自由度、学習プロセス自由度、モデル自由度に大別できる。
この章では、FMLの最近の進歩、応用、オープンな課題について説明する。
- 参考スコア(独自算出の注目度): 13.783950035836593
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Frugal Machine Learning (FML) refers to the practice of designing Machine Learning (ML) models that are efficient, cost-effective, and mindful of resource constraints. This field aims to achieve acceptable performance while minimizing the use of computational resources, time, energy, and data for both training and inference. FML strategies can be broadly categorized into input frugality, learning process frugality, and model frugality, each focusing on reducing resource consumption at different stages of the ML pipeline. This chapter explores recent advancements, applications, and open challenges in FML, emphasizing its importance for smart environments that incorporate edge computing and IoT devices, which often face strict limitations in bandwidth, energy, or latency. Technological enablers such as model compression, energy-efficient hardware, and data-efficient learning techniques are discussed, along with adaptive methods including parameter regularization, knowledge distillation, and dynamic architecture design that enable incremental model updates without full retraining. Furthermore, it provides a comprehensive taxonomy of frugal methods, discusses case studies across diverse domains, and identifies future research directions to drive innovation in this evolving field.
- Abstract(参考訳): FML(Frugal Machine Learning)とは、機械学習(ML)モデルを設計するプラクティスである。
このフィールドは、トレーニングと推論の両方において、計算資源、時間、エネルギー、データの使用を最小化しながら、許容可能なパフォーマンスを達成することを目的としている。
FML戦略は入力自由度、学習プロセス自由度、モデル自由度に大別でき、それぞれMLパイプラインの異なる段階でのリソース消費を減らすことに重点を置いている。
この章では、エッジコンピューティングとIoTデバイスを組み込んだスマート環境の重要性を強調し、帯域幅、エネルギ、レイテンシの厳しい制限に直面している、最近のFMLの進歩、アプリケーション、オープンな課題について説明する。
モデル圧縮やエネルギー効率のよいハードウェア,データ効率の学習技術といった技術的イネーラについて,パラメータ正規化や知識蒸留,動的アーキテクチャ設計など,完全なリトレーニングを伴わずにインクリメンタルなモデル更新を可能にする手法について論じる。
さらに、フラゴール法を包括的に分類し、多様な領域にわたるケーススタディを議論し、この発展途上分野におけるイノベーションを推進するための今後の研究方向を特定する。
関連論文リスト
- PEFT A2Z: Parameter-Efficient Fine-Tuning Survey for Large Language and Vision Models [0.0]
LLM(Large Language Models)やVLM(Vision Language Models)のような大規模モデルは、人工知能を変革した。
これらのモデルの微調整は高価であり、膨大な計算資源、メモリ、タスク固有のデータを必要とする。
PEFT(Efficient Fine-Tuning)は、少数のパラメータだけを更新することで、大規模なモデルを下流タスクに適応できる有望なソリューションとして登場した。
論文 参考訳(メタデータ) (2025-04-19T00:33:16Z) - Deploying Large AI Models on Resource-Limited Devices with Split Federated Learning [39.73152182572741]
本稿では、SFLAM(Quantized Split Federated Fine-Tuning Large AI Model)と呼ばれる新しいフレームワークを提案する。
エッジデバイスとサーバ間のトレーニング負荷を分割することで、SFLAMはデバイス上の大規模なモデルの操作を容易にすることができる。
SFLAMは、トレーニング効率を高めるために、量子化管理、電力制御、帯域幅割り当て戦略を取り入れている。
論文 参考訳(メタデータ) (2025-04-12T07:55:11Z) - Sometimes Painful but Certainly Promising: Feasibility and Trade-offs of Language Model Inference at the Edge [3.1471494780647795]
最近の傾向はコンパクトモデル(典型的には量子化のような技術によって100億のパラメータが許容される)に注目が集まっていることを示している。
このシフトは、エッジデバイス上でのLMの道を開き、プライバシーの強化、レイテンシの低減、データ主権の向上といった潜在的なメリットを提供する。
本稿では,CPUベースおよびGPUアクセラレーションエッジデバイスにおけるジェネレーティブLM推論の総合評価を行う。
論文 参考訳(メタデータ) (2025-03-12T07:01:34Z) - DSMoE: Matrix-Partitioned Experts with Dynamic Routing for Computation-Efficient Dense LLMs [70.91804882618243]
本稿では,事前学習したFFN層を計算ブロックに分割することで,分散化を実現するDSMoEを提案する。
我々は,Sigmoid アクティベーションとストレートスルー推定器を用いた適応型エキスパートルーティングを実装し,トークンがモデル知識の様々な側面に柔軟にアクセスできるようにする。
LLaMAモデルを用いた実験により、DSMoEは既存のプルーニング法やMoE法に比べて優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-02-18T02:37:26Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - Filling the Missing: Exploring Generative AI for Enhanced Federated
Learning over Heterogeneous Mobile Edge Devices [72.61177465035031]
ローカルデータのFIMI(FIlling the MIssing)部分を活用することにより,これらの課題に対処する,AIを活用した創発的なフェデレーション学習を提案する。
実験の結果,FIMIはデバイス側エネルギーの最大50%を節約し,目標とするグローバルテスト精度を達成できることがわかった。
論文 参考訳(メタデータ) (2023-10-21T12:07:04Z) - Resource-Efficient Neural Networks for Embedded Systems [23.532396005466627]
本稿では,機械学習技術の現状について概説する。
私たちは、過去10年で主要な機械学習モデルであるディープニューラルネットワーク(DNN)に基づく、リソース効率の高い推論に焦点を当てています。
我々は、圧縮技術を用いて、よく知られたベンチマークデータセットの実験で議論を裏付ける。
論文 参考訳(メタデータ) (2020-01-07T14:17:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。