論文の概要: Privacy-Preserving Machine Learning for IoT: A Cross-Paradigm Survey and Future Roadmap
- arxiv url: http://arxiv.org/abs/2603.13570v1
- Date: Fri, 13 Mar 2026 20:19:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.279244
- Title: Privacy-Preserving Machine Learning for IoT: A Cross-Paradigm Survey and Future Roadmap
- Title(参考訳): IoTのためのプライバシ保護機械学習 - クロスパラダイム調査と今後のロードマップ
- Authors: Zakia Zaman, Praveen Gauravaram, Mahbub Hassan, Sanjay Jha, Wen Hu,
- Abstract要約: モノのインターネット(Internet of Things)の急速な普及により、堅牢なプライバシー保護機械学習メカニズムへの需要が高まっている。
この調査では、プライバシ保護機械学習のIoT中心、クロスパラダイム分析を包括的に紹介する。
- 参考スコア(独自算出の注目度): 6.178815764761489
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid proliferation of the Internet of Things has intensified demand for robust privacy-preserving machine learning mechanisms to safeguard sensitive data generated by large-scale, heterogeneous, and resource-constrained devices. Unlike centralized environments, IoT ecosystems are inherently decentralized, bandwidth-limited, and latency-sensitive, exposing privacy risks across sensing, communication, and distributed training pipelines. These characteristics render conventional anonymization and centralized protection strategies insufficient for practical deployments. This survey presents a comprehensive IoT-centric, cross-paradigm analysis of privacy-preserving machine learning. We introduce a structured taxonomy spanning perturbation-based mechanisms such as differential privacy, distributed paradigms such as federated learning, cryptographic approaches including homomorphic encryption and secure multiparty computation, and generative synthesis techniques based on generative adversarial networks. For each paradigm, we examine formal privacy guarantees, computational and communication complexity, scalability under heterogeneous device participation, and resilience against threats including membership inference, model inversion, gradient leakage, and adversarial manipulation. We further analyze deployment constraints in wireless IoT environments, highlighting trade-offs between privacy, communication overhead, model convergence, and system efficiency within next-generation mobile architectures. We also consolidate evaluation methodologies, summarize representative datasets and open-source frameworks, and identify open challenges including hybrid privacy integration, energy-aware learning, privacy-preserving large language models, and quantum-resilient machine learning.
- Abstract(参考訳): モノのインターネット(Internet of Things)の急速な普及により、大規模で異質でリソースに制約のあるデバイスによって生成される機密データを保護するための堅牢なプライバシー保護機械学習メカニズムへの需要が高まっている。
集中型環境とは異なり、IoTエコシステムは本質的に分散化されており、帯域幅に制限があり、レイテンシに敏感であり、センサー、通信、分散トレーニングパイプライン間のプライバシリスクを露呈する。
これらの特徴は、従来の匿名化と集中型保護戦略を実践的な展開には不十分である。
この調査では、プライバシ保護機械学習のIoT中心、クロスパラダイム分析を包括的に紹介する。
本稿では,差分プライバシーやフェデレーション学習などの分散パラダイム,同型暗号化やセキュアなマルチパーティ計算などの暗号手法,生成的敵ネットワークに基づく生成的合成技術など,摂動に基づくメカニズムにまたがる構造的分類について紹介する。
各パラダイムに対して、正式なプライバシ保証、計算と通信の複雑さ、異種デバイス参加時のスケーラビリティ、メンバシップ推論、モデル反転、勾配リーク、敵の操作を含む脅威に対するレジリエンスについて検討する。
さらに、ワイヤレスIoT環境におけるデプロイメントの制約を分析し、プライバシ、通信オーバーヘッド、モデル収束、次世代モバイルアーキテクチャにおけるシステム効率のトレードオフを強調します。
また、評価方法論の統合、代表的データセットとオープンソースフレームワークの要約、ハイブリッドプライバシ統合、エネルギー認識学習、プライバシ保護による大規模言語モデル、量子レジリエント機械学習など、オープンな課題の特定も行なっています。
関連論文リスト
- A Secure and Private Distributed Bayesian Federated Learning Design [56.92336577799572]
DFL(Distributed Federated Learning)は、中央パラメータサーバを持たない大規模システム間の分散モデルトレーニングを可能にする。
DFLは、3つの重要な課題に直面している: 正直な隣人からのプライバシー漏洩、中央調整の欠如による収束の遅さ、モデルの精度の低下を目指すビザンティンの敵に対する脆弱性。
本稿では,ビザンチンの堅牢性,プライバシー保護,収束促進を統合した新しいDFLフレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-23T16:12:02Z) - Federated Attention: A Distributed Paradigm for Collaborative LLM Inference over Edge Networks [63.541114376141735]
大規模言語モデル(LLM)は、さまざまなアプリケーションシナリオにまたがってインテリジェントな機能を提供しながら、急速に普及しています。
しかし、彼らの共同シナリオにおける実践的なデプロイは、プライバシの脆弱性、通信オーバーヘッド、計算ボトルネックといった根本的な課題に直面します。
我々はフェデレート・アテンション(FedAttn)を提案し、フェデレーション・パラダイムを自己注意機構に統合する。
論文 参考訳(メタデータ) (2025-11-04T15:14:58Z) - A Survey on Cloud-Edge-Terminal Collaborative Intelligence in AIoT Networks [49.90474228895655]
クラウドエッジ端末協調インテリジェンス(CETCI)は、モノの人工知能(AIoT)コミュニティにおける基本的なパラダイムである。
CETCIは、分離されたレイヤ最適化からデプロイ可能なコラボレーティブインテリジェンスシステムに移行する、新興のAIoTアプリケーションで大きな進歩を遂げた。
本調査では、基礎アーキテクチャ、CETCIパラダイムのテクノロジの実現、シナリオについて解説し、CISAIOT初心者向けのチュートリアルスタイルのレビューを提供する。
論文 参考訳(メタデータ) (2025-08-26T08:38:01Z) - Zero-Trust Foundation Models: A New Paradigm for Secure and Collaborative Artificial Intelligence for Internet of Things [61.43014629640404]
Zero-Trust Foundation Models (ZTFM)は、ゼロトラストセキュリティの原則をIoT(Internet of Things)システムの基盤モデル(FM)のライフサイクルに組み込む。
ZTFMは、分散、異質、潜在的に敵対的なIoT環境にわたって、セキュアでプライバシ保護のAIを可能にする。
論文 参考訳(メタデータ) (2025-05-26T06:44:31Z) - Federated Learning: A Survey on Privacy-Preserving Collaborative Intelligence [0.0]
フェデレートラーニング(FL)は、分散機械学習の分野における変革的パラダイムとして登場した。
この調査は、フェデレートラーニングの簡潔かつ包括的概要を提供する。
論文 参考訳(メタデータ) (2025-04-24T16:10:29Z) - Towards Resilient Federated Learning in CyberEdge Networks: Recent Advances and Future Trends [20.469263896950437]
我々は,CyberEdgeネットワークにおけるレジリエント・フェデレート・ラーニング(ResFL)の最新技術について検討する。
我々は,集約的推論と機能指向型セキュリティ機構を用いた共同トレーニングに重点を置いている。
これらの進歩は、超低レイテンシ、人工知能(AI)駆動のネットワーク管理、敵攻撃に対するレジリエンスの改善を提供する。
論文 参考訳(メタデータ) (2025-04-01T23:06:45Z) - A Survey of Model Extraction Attacks and Defenses in Distributed Computing Environments [55.60375624503877]
モデル抽出攻撃(MEA)は、敵がモデルを盗み、知的財産と訓練データを公開することによって、現代の機械学習システムを脅かす。
この調査は、クラウド、エッジ、フェデレーションのユニークな特性がどのように攻撃ベクトルや防御要件を形作るのかを、緊急に理解する必要に起因している。
本研究は, 自動運転車, 医療, 金融サービスといった重要な分野において, 環境要因がセキュリティ戦略にどう影響するかを実証し, 攻撃手法と防衛機構の進化を系統的に検討する。
論文 参考訳(メタデータ) (2025-02-22T03:46:50Z) - Federated Learning-Driven Cybersecurity Framework for IoT Networks with Privacy-Preserving and Real-Time Threat Detection Capabilities [0.0]
従来の集中型セキュリティ手法は、IoTネットワークにおけるプライバシ保護とリアルタイム脅威検出のバランスをとるのに苦労することが多い。
本研究では,IoT環境に特化したフェデレート学習駆動型サイバーセキュリティフレームワークを提案する。
局所的に訓練されたモデルのセキュアアグリゲーションは、同型暗号を用いて達成され、機密情報を漏らさずに協調学習が可能である。
論文 参考訳(メタデータ) (2025-02-14T23:11:51Z) - Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。