論文の概要: TinyML NLP Scheme for Semantic Wireless Sentiment Classification with Privacy Preservation
- arxiv url: http://arxiv.org/abs/2411.06291v2
- Date: Thu, 03 Apr 2025 15:49:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-04 12:54:19.894202
- Title: TinyML NLP Scheme for Semantic Wireless Sentiment Classification with Privacy Preservation
- Title(参考訳): TinyML NLPによるプライバシ保護を用いたセマンティック無線感性分類
- Authors: Ahmed Y. Radwan, Mohammad Shehab, Mohamed-Slim Alouini,
- Abstract要約: 本稿では,エネルギー効率の高いプライバシ保護型Tiny Machine Learning(TinyML)フレームワークとしてスプリットラーニング(SL)を紹介した。
以上の結果から,SLは計算能力とCO2排出量を大幅に削減し,プライバシの向上を図っている。
本研究は、エッジデバイスにプライバシ保護、エネルギー効率の高いNLPモデルをデプロイする際の洞察を提供する。
- 参考スコア(独自算出の注目度): 49.801175302937246
- License:
- Abstract: Natural Language Processing (NLP) operations, such as semantic sentiment analysis and text synthesis, often raise privacy concerns and demand significant on-device computational resources. Centralized Learning (CL) on the edge provides an energy-efficient alternative but requires collecting raw data, compromising user privacy. While Federated Learning (FL) enhances privacy, it imposes high computational energy demands on resource-constrained devices. We introduce Split Learning (SL) as an energy-efficient, privacy-preserving Tiny Machine Learning (TinyML) framework and compare it to FL and CL in the presence of Rayleigh fading and additive noise. Our results show that SL significantly reduces computational power and CO2 emissions while enhancing privacy, as evidenced by a fourfold increase in reconstruction error compared to FL and nearly eighteen times that of CL. In contrast, FL offers a balanced trade-off between privacy and efficiency. This study provides insights into deploying privacy-preserving, energy-efficient NLP models on edge devices.
- Abstract(参考訳): セマンティックな感情分析やテキスト合成のような自然言語処理(NLP)操作は、しばしばプライバシーの懸念を高め、デバイス上の重要な計算資源を要求する。
エッジ上の集中学習(CL)は、エネルギー効率のよい代替手段を提供するが、生データを収集し、ユーザのプライバシを損なう必要がある。
フェデレートラーニング(FL)は、プライバシを高める一方で、リソース制約のあるデバイスに高い計算エネルギー要求を課す。
エネルギー効率,プライバシ保護のためのTiny Machine Learning(TinyML)フレームワークとしてスプリットラーニング(SL)を導入し,レイリーフェディングや付加雑音の存在下でFLやCLと比較した。
その結果,FLの4倍,CLの約18倍の再現誤差の増加により,SLは計算能力とCO2排出量を著しく低減し,プライバシーの向上を図った。
対照的に、FLはプライバシと効率のバランスのとれたトレードオフを提供します。
本研究は、エッジデバイスにプライバシ保護、エネルギー効率の高いNLPモデルをデプロイする際の洞察を提供する。
関連論文リスト
- Providing Differential Privacy for Federated Learning Over Wireless: A Cross-layer Framework [19.381425127772054]
Federated Learning(FL)は、エッジデバイスがローカルなトレーニングデータを維持することができる分散機械学習フレームワークである。
本稿では,分散化された動的電力制御により差分プライバシ(DP)を改善するOTA-FLの無線物理層(PHY)設計を提案する。
この適応は、異なる学習アルゴリズム間で設計の柔軟性と有効性を示しながら、プライバシに強く重点を置いています。
論文 参考訳(メタデータ) (2024-12-05T18:27:09Z) - BEFL: Balancing Energy Consumption in Federated Learning for Mobile Edge IoT [2.6872737601772956]
Mobile Edge IoT(MEIoT)では、トレーニングと通信プロセスはデバイスの限られたバッテリーリソースを著しく減らすことができる。
我々は,グローバルモデル精度の向上,全エネルギー消費の最小化,デバイス間のエネルギー利用格差の低減という,3つの目標のバランスを図るための共同最適化フレームワークであるBEFLを提案する。
実験の結果、BEFLはグローバルモデル精度を1.6%改善し、エネルギー消費のばらつきを72.7%低減し、既存の方法と比較して総エネルギー消費を28.2%低減することがわかった。
論文 参考訳(メタデータ) (2024-12-05T07:58:32Z) - Exploring the Privacy-Energy Consumption Tradeoff for Split Federated Learning [51.02352381270177]
Split Federated Learning (SFL)は、最近、有望な分散学習技術として登場した。
SFLにおけるカット層の選択は、クライアントのエネルギー消費とプライバシに大きな影響を与える可能性がある。
本稿では、SFLプロセスの概要を概観し、エネルギー消費とプライバシを徹底的に分析する。
論文 参考訳(メタデータ) (2023-11-15T23:23:42Z) - User Assignment and Resource Allocation for Hierarchical Federated
Learning over Wireless Networks [20.09415156099031]
階層FL(Hierarchical FL)は、効率的なリソース割り当てと適切なユーザ割り当てによって、エネルギー消費とレイテンシを低減する。
本稿では,スペクトル資源最適化アルゴリズム(SROA)とHFLのための2段階CPUアルゴリズム(TSIA)を提案する。
実験により,提案したHFLフレームワークは,エネルギーと遅延低減に関する既存の研究よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-09-17T12:10:39Z) - Binary Federated Learning with Client-Level Differential Privacy [7.854806519515342]
フェデレートラーニング(Federated Learning、FL)は、プライバシ保護のための協調学習フレームワークである。
既存のFLシステムはトレーニングアルゴリズムとしてフェデレーション平均(FedAvg)を採用するのが一般的である。
差分プライバシーを保証する通信効率のよいFLトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-07T06:07:04Z) - A Safe Genetic Algorithm Approach for Energy Efficient Federated
Learning in Wireless Communication Networks [53.561797148529664]
フェデレートラーニング(FL)は、従来の集中型アプローチとは対照的に、デバイスが協調的にモデルトレーニングを行う分散技術として登場した。
FLの既存の取り組みにもかかわらず、その環境影響は、無線ネットワークへの適用性に関するいくつかの重要な課題が特定されているため、まだ調査中である。
現在の研究は遺伝的アルゴリズム(GA)アプローチを提案しており、FLプロセス全体のエネルギー消費と不要な資源利用の両方を最小化することを目標としている。
論文 参考訳(メタデータ) (2023-06-25T13:10:38Z) - Amplitude-Varying Perturbation for Balancing Privacy and Utility in
Federated Learning [86.08285033925597]
本稿では,フェデレート学習のプライバシを保護するため,時変雑音振幅を持つ新しいDP摂動機構を提案する。
我々は、FLの過度な摂動ノイズによる早期収束を防止するために、シリーズのオンラインリファインメントを導出した。
新しいDP機構のプライバシ保存FLの収束と精度への寄与は、持続的な雑音振幅を持つ最先端のガウスノイズ機構と比較して相関する。
論文 参考訳(メタデータ) (2023-03-07T22:52:40Z) - Privacy-Preserving Joint Edge Association and Power Optimization for the
Internet of Vehicles via Federated Multi-Agent Reinforcement Learning [74.53077322713548]
プライバシ保護型共同エッジアソシエーションと電力配分問題について検討する。
提案されたソリューションは、最先端のソリューションよりも高いプライバシレベルを維持しながら、魅力的なトレードオフにぶつかる。
論文 参考訳(メタデータ) (2023-01-26T10:09:23Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Threshold-Based Data Exclusion Approach for Energy-Efficient Federated
Edge Learning [4.25234252803357]
Federated Edge Learning (FEEL) は次世代無線ネットワークにおいて有望な分散学習技術である。
FEELは、モデルトレーニングラウンド中に消費される電力により、エネルギー制約された参加機器の寿命を大幅に短縮する可能性がある。
本稿では,FEELラウンドにおける計算および通信エネルギー消費を最小化するための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-03-30T13:34:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。