論文の概要: QuantFL: Sustainable Federated Learning for Edge IoT via Pre-Trained Model Quantisation
- arxiv url: http://arxiv.org/abs/2603.17507v1
- Date: Wed, 18 Mar 2026 09:08:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.592516
- Title: QuantFL: Sustainable Federated Learning for Edge IoT via Pre-Trained Model Quantisation
- Title(参考訳): QuantFL: 事前トレーニングされたモデル量子化によるエッジIoTの持続可能なフェデレーション学習
- Authors: Charuka Herath, Yogachandran Rahulamathavan, Varuna De Silva, Sangarapillai Lambotharan,
- Abstract要約: Federated Learning (FL)は、IoT(Internet of Things)デバイス上でのプライバシ保護インテリジェンスを実現する。
FLは、頻繁なアップリンク伝送のエネルギーコストが高いため、重要な炭素フットプリントを発生させる。
我々は,事前学習した初期化を活用して,能動的で計算学的に軽量な量子化を実現する,持続可能なFLフレームワークであるQuantFLを提案する。
- 参考スコア(独自算出の注目度): 5.678765930141613
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) enables privacy-preserving intelligence on Internet of Things (IoT) devices but incurs a significant carbon footprint due to the high energy cost of frequent uplink transmission. While pre-trained models are increasingly available on edge devices, their potential to reduce the energy overhead of fine-tuning remains underexplored. In this work, we propose QuantFL, a sustainable FL framework that leverages pre-trained initialisation to enable aggressive, computationally lightweight quantisation. We demonstrate that pre-training naturally concentrates update statistics, allowing us to use memory-efficient bucket quantisation without the energy-intensive overhead of complex error-feedback mechanisms. On MNIST and CIFAR-100, QuantFL reduces total communication by 40\% ($\simeq40\%$ total-bit reduction with full-precision downlink; $\geq80\%$ on uplink or when downlink is quantised) while matching or exceeding uncompressed baselines under strict bandwidth budgets; BU attains 89.00\% (MNIST) and 66.89\% (CIFAR-100) test accuracy with orders of magnitude fewer bits. We also account for uplink and downlink costs and provide ablations on quantisation levels and initialisation. QuantFL delivers a practical, "green" recipe for scalable training on battery-constrained IoT networks.
- Abstract(参考訳): Federated Learning (FL) はモノのインターネット(IoT)デバイス上でのプライバシ保護のインテリジェンスを実現するが、アップリンクの頻繁な送信による高エネルギーコストのため、炭素フットプリントが大幅に増加する。
事前訓練されたモデルがエッジデバイスで利用できるようになったが、微調整のエネルギーオーバーヘッドを減らす可能性はまだ未定である。
本研究では,事前学習した初期化を活用して,能動的かつ計算的に軽量な量子化を実現する,持続可能なFLフレームワークであるQuantFLを提案する。
プリトレーニングは更新統計を自然に集中させ、複雑なエラーフィードバック機構のエネルギー集約的なオーバーヘッドを伴わずにメモリ効率の高いバケット量子化を実現できることを示した。
MNIST と CIFAR-100 では、QuantFL は全通信を 40\% (\simeq40\%$ total-bit reduction with full-precision downlink; $\geq80\%$ on uplink or when downlink is Quantized) で削減し、厳格な帯域幅予算の下で圧縮されていないベースラインをマッチングまたは超過している。
また、アップリンクとダウンリンクのコストも考慮し、量子化レベルと初期化に関する改善を提供します。
QuantFLは、バッテリ制約のあるIoTネットワーク上でのスケーラブルなトレーニングのための実用的な"グリーン"レシピを提供する。
関連論文リスト
- Towards Practical Quantum Federated Learning: Enhancing Efficiency and Noise Tolerance [0.0]
フェデレートラーニング(FL)は、プライバシ保護のための分散モデルトレーニングを可能にするが、勾配インバージョンやモデル漏洩攻撃には脆弱である。
パラメータアグリゲーションのための情報理論セキュリティを提供するために量子通信が提案されている。
本稿では,量子フェデレーション学習におけるコミュニケーション・コンバージェンス・ノイズトレードオフの定量的研究について述べる。
論文 参考訳(メタデータ) (2026-03-04T09:04:10Z) - Energy and Memory-Efficient Federated Learning With Ordered Layer Freezing [8.403142088918843]
フェデレートラーニング(FL)は、IoT(Internet of Things)の分散エッジデバイスにまたがる機械学習モデルをトレーニングするための、プライバシ保護パラダイムとして登場した。
FedOLF(Federated Learning with Ordered Layer Freezing)を紹介する。
FedOLFはトレーニング前に事前に定義された順序で継続的にレイヤを凍結し、通信とメモリ要件を大幅に緩和する。
論文 参考訳(メタデータ) (2025-12-29T04:39:33Z) - Lightweight Federated Learning over Wireless Edge Networks [83.4818741890634]
Federated (FL) はネットワークエッジの代替品であるが、無線ネットワークでは代替品である。
閉形式式FL収束ギャップ伝送パワー,モデルプルーニング誤差,量子化を導出する。
LTFLは、実世界のデータセットの実験において最先端のスキームよりも優れている。
論文 参考訳(メタデータ) (2025-07-13T09:14:17Z) - Accelerating Energy-Efficient Federated Learning in Cell-Free Networks with Adaptive Quantization [45.99908087352264]
フェデレートラーニング(FL)により、クライアントはローカルデータの代わりに学習パラメータを共有でき、通信オーバーヘッドを低減できる。
従来の無線ネットワークはFLでレイテンシの問題に直面している。
本稿では,クライアントサーバ間のシームレスな協調作業に最適化されたアップリンク電力割り当てを特徴とするエネルギー効率,低レイテンシFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-30T08:10:21Z) - Adaptive Federated Pruning in Hierarchical Wireless Networks [69.6417645730093]
Federated Learning(FL)は、サーバがプライベートデータセットにアクセスすることなく、複数のデバイスによって更新されたモデルを集約する、プライバシ保護の分散学習フレームワークである。
本稿では,無線ネットワークにおけるHFLのモデルプルーニングを導入し,ニューラルネットワークの規模を小さくする。
提案するHFLは,モデルプルーニングを伴わないHFLと比較して学習精度が良く,通信コストが約50%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-15T22:04:49Z) - HCFL: A High Compression Approach for Communication-Efficient Federated
Learning in Very Large Scale IoT Networks [27.963991995365532]
フェデレートラーニング(FL)は、IoT(Internet-of-Things)デバイスが、処理のために生データを集中ノードに送信することなく、コラボレーティブモデルを学ぶことを可能にする、新たな人工知能の概念である。
多数のアドバンテージにもかかわらず、IoTデバイスの低コンピューティングリソースとモデルパラメータを交換するための高い通信コストは、巨大なIoTネットワークにおけるFLの応用を極めて限定している。
我々は,大規模IoTネットワークのための高速圧縮フェデレーション学習(HCFL)と呼ばれるFLのための新しい圧縮スキームを開発した。
論文 参考訳(メタデータ) (2022-04-14T05:29:40Z) - Exploring Deep Reinforcement Learning-Assisted Federated Learning for
Online Resource Allocation in EdgeIoT [53.68792408315411]
フェデレートラーニング(FL)は、モバイルエッジコンピューティングベースのInternet of Thing(EdgeIoT)における盗聴攻撃からデータトレーニングプライバシを保護するために、ますます検討されている。
本研究では,連続領域における最適精度とエネルギー収支を達成するために,FLDLT3フレームワークを提案する。
その結果、FL-DLT3は100回未満の高速収束を実現し、FLの精度-エネルギー消費比は既存の最先端ベンチマークと比較して51.8%向上した。
論文 参考訳(メタデータ) (2022-02-15T13:36:15Z) - On the Tradeoff between Energy, Precision, and Accuracy in Federated
Quantized Neural Networks [68.52621234990728]
無線ネットワーク上でのフェデレーション学習(FL)は、精度、エネルギー効率、精度のバランスをとる必要がある。
本稿では,ローカルトレーニングとアップリンク伝送の両方において,有限レベルの精度でデータを表現できる量子化FLフレームワークを提案する。
我々のフレームワークは標準的なFLモデルと比較してエネルギー消費量を最大53%削減できる。
論文 参考訳(メタデータ) (2021-11-15T17:00:03Z) - Fast Certified Robust Training via Better Initialization and Shorter
Warmup [95.81628508228623]
我々は,新しいIPPと原理正規化器を提案し,認証境界を安定化させる。
バッチ正規化(BN)は、認定トレーニングのための最高のパフォーマンスのネットワークを構築するための重要なアーキテクチャ要素です。
論文 参考訳(メタデータ) (2021-03-31T17:58:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。