論文の概要: A Lightweight and Secure Deep Learning Model for Privacy-Preserving Federated Learning in Intelligent Enterprises
- arxiv url: http://arxiv.org/abs/2503.02017v1
- Date: Mon, 03 Mar 2025 19:51:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:19:47.251339
- Title: A Lightweight and Secure Deep Learning Model for Privacy-Preserving Federated Learning in Intelligent Enterprises
- Title(参考訳): 知的企業におけるプライバシ保護フェデレーション学習のための軽量でセキュアな深層学習モデル
- Authors: Reza Fotohi, Fereidoon Shams Aliee, Bahar Farahani,
- Abstract要約: インテリジェントな企業では、データから洞察を抽出するために機械学習ベースのモデルが採用されている。
FedAnil+は、3つの主要なフェーズを含む、新しくて軽量でセキュアなFederated Deep Learning Modelである。
実験の結果、FedAnil+は推論や中毒攻撃に対して安全であり、精度が良いことが確認された。
- 参考スコア(独自算出の注目度): 0.5461938536945723
- License:
- Abstract: The ever growing Internet of Things (IoT) connections drive a new type of organization, the Intelligent Enterprise. In intelligent enterprises, machine learning based models are adopted to extract insights from data. Due to the efficiency and privacy challenges of these traditional models, a new federated learning (FL) paradigm has emerged. In FL, multiple enterprises can jointly train a model to update a final model. However, firstly, FL trained models usually perform worse than centralized models, especially when enterprises training data is non-IID (Independent and Identically Distributed). Second, due to the centrality of FL and the untrustworthiness of local enterprises, traditional FL solutions are vulnerable to poisoning and inference attacks and violate privacy. Thirdly, the continuous transfer of parameters between enterprises and servers increases communication costs. To this end, the FedAnil+ model is proposed, a novel, lightweight, and secure Federated Deep Learning Model that includes three main phases. In the first phase, the goal is to solve the data type distribution skew challenge. Addressing privacy concerns against poisoning and inference attacks is covered in the second phase. Finally, to alleviate the communication overhead, a novel compression approach is proposed that significantly reduces the size of the updates. The experiment results validate that FedAnil+ is secure against inference and poisoning attacks with better accuracy. In addition, it shows improvements over existing approaches in terms of model accuracy (13%, 16%, and 26%), communication cost (17%, 21%, and 25%), and computation cost (7%, 9%, and 11%).
- Abstract(参考訳): 成長を続けるIoT(Internet of Things)接続は、新たなタイプの組織であるIntelligent Enterpriseを駆動する。
インテリジェントな企業では、データから洞察を抽出するために機械学習ベースのモデルが採用されている。
これらの従来のモデルの効率性とプライバシの課題のため、新しいフェデレートラーニング(FL)パラダイムが出現した。
FLでは、複数の企業が最終モデルを更新するためにモデルを共同でトレーニングすることができる。
しかし、第一に、FLトレーニングモデルは、特に企業が非IID(独立かつ独立的な分散)でデータをトレーニングする場合、通常、集中型モデルよりもパフォーマンスが悪くなります。
第二に、FLの中央集権性と地方企業の不信感のため、従来のFLソリューションは、中毒や推論攻撃に弱いため、プライバシーを侵害する。
第3に、企業とサーバ間のパラメータの継続的な転送は、通信コストを増大させる。
この目的のために、FedAnil+モデルは、3つの主要なフェーズを含む、新しく、軽量で、セキュアなFederated Deep Learning Modelとして提案されている。
第1フェーズでは、データ型分散の難問を解決することが目標だ。
毒殺や推論攻撃に対するプライバシー上の懸念に対処することは、第2フェーズでカバーされる。
最後に、通信オーバーヘッドを軽減するため、更新のサイズを大幅に削減する新しい圧縮手法を提案する。
実験の結果、FedAnil+は推論や中毒攻撃に対して安全であり、精度が良いことが確認された。
さらに、モデル精度(13%、16%、26%)、通信コスト(17%、21%、25%)、計算コスト(7%、9%、および11%)の点で、既存のアプローチよりも改善されている。
関連論文リスト
- One-shot Federated Learning via Synthetic Distiller-Distillate Communication [63.89557765137003]
One-shot Federated Learning (FL)は、単一のコミュニケーションで機械学習モデルの協調トレーニングを促進する強力な技術である。
我々はこれらの課題に対処するために,新しい,実用的なワンショットFLフレームワークであるFedSD2Cを提案する。
論文 参考訳(メタデータ) (2024-12-06T17:05:34Z) - Fed-Credit: Robust Federated Learning with Credibility Management [18.349127735378048]
Federated Learning(FL)は、分散デバイスやデータソースのモデルトレーニングを可能にする、新興の機械学習アプローチである。
我々は、Fed-Creditと呼ばれる信頼性管理手法に基づく堅牢なFLアプローチを提案する。
その結果、比較的低い計算複雑性を維持しながら、敵攻撃に対する精度とレジリエンスが向上した。
論文 参考訳(メタデータ) (2024-05-20T03:35:13Z) - Secure Decentralized Learning with Blockchain [13.795131629462798]
Federated Learning(FL)は、モバイルとIoTデバイスにおける分散機械学習のパラダイムとしてよく知られている。
FLにおける単一障害点問題を回避するため、分散学習(DFL)がモデル集約にピアツーピア通信を使用することが提案されている。
論文 参考訳(メタデータ) (2023-10-10T23:45:17Z) - Towards Understanding Adversarial Transferability in Federated Learning [14.417827137513369]
悪質なクライアントのグループは、そのアイデンティティを軽視し、良心的なクライアントとして振る舞うことによって、トレーニング中にモデルに影響を与えてきたが、その後、敵の役割に切り替えた。
この種の攻撃は微妙で検出が難しい。
提案攻撃が現在のFLシステムに対して高いセキュリティリスクを課すことを実証的に示す。
論文 参考訳(メタデータ) (2023-10-01T08:35:46Z) - Blockchain-based Optimized Client Selection and Privacy Preserved
Framework for Federated Learning [2.4201849657206496]
フェデレートラーニング(Federated Learning)は、大規模ニューラルネットワークモデルをトレーニングする分散メカニズムで、複数のクライアントが参加する。
この機能により、フェデレーション学習はデータのプライバシー問題に対するセキュアなソリューションとみなされる。
ブロックチェーンベースの最適化クライアント選択とプライバシ保護フレームワークを提案しました。
論文 参考訳(メタデータ) (2023-07-25T01:35:51Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - No One Left Behind: Inclusive Federated Learning over Heterogeneous
Devices [79.16481453598266]
この問題に対処するクライアント包摂的フェデレーション学習手法であるInclusiveFLを提案する。
InclusiveFLの中核となる考え方は、異なるサイズのモデルを異なる計算能力を持つクライアントに割り当てることである。
また,異なる大きさの複数の局所モデル間で知識を共有する効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-02-16T13:03:27Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - FLaPS: Federated Learning and Privately Scaling [3.618133010429131]
フェデレートラーニング(Federated Learning, FL)とは、データを収集するデバイスにモデルを転送する分散学習プロセスである。
FLaPS(Federated Learning and Privately Scaling)アーキテクチャは,システムのセキュリティとプライバシだけでなく,スケーラビリティも向上する。
論文 参考訳(メタデータ) (2020-09-13T14:20:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。