論文の概要: HLF-FSL. A Decentralized Federated Split Learning Solution for IoT on Hyperledger Fabric
- arxiv url: http://arxiv.org/abs/2507.07637v1
- Date: Thu, 10 Jul 2025 11:06:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.368231
- Title: HLF-FSL. A Decentralized Federated Split Learning Solution for IoT on Hyperledger Fabric
- Title(参考訳): HLF-FSL - Hyperledger Fabric上のIoTのための分散分散分散学習ソリューション
- Authors: Carlos Beis Penedo, Rebeca P. Díaz Redondo, Ana Fernández Vilas, Manuel Fernández Veiga, Francisco Troncoso Pastoriza,
- Abstract要約: センシティブなドメインにおけるコラボレーション型機械学習は、エンタープライズデプロイメントのためのスケーラブルでプライバシ保護のソリューションを必要とする。
フェデレート・スプリット・ラーニング(FSL)と認可型ブロックチェーンHyperledger Fabric(HLF)を組み合わせた分散アーキテクチャを提案する。
我々のチェーンコードは、中央コーディネータを使わずに、FSLの分割モデル実行とピアツーピアアグリゲーションをオーケストレーションします。
- 参考スコア(独自算出の注目度): 2.6214349237099164
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Collaborative machine learning in sensitive domains demands scalable, privacy preserving solutions for enterprise deployment. Conventional Federated Learning (FL) relies on a central server, introducing single points of failure and privacy risks, while Split Learning (SL) partitions models for privacy but scales poorly due to sequential training. We present a decentralized architecture that combines Federated Split Learning (FSL) with the permissioned blockchain Hyperledger Fabric (HLF). Our chaincode orchestrates FSL's split model execution and peer-to-peer aggregation without any central coordinator, leveraging HLF's transient fields and Private Data Collections (PDCs) to keep raw data and model activations private. On CIFAR-10 and MNIST benchmarks, HLF-FSL matches centralized FSL accuracy while reducing per epoch training time compared to Ethereum-based works. Performance and scalability tests show minimal blockchain overhead and preserved accuracy, demonstrating enterprise grade viability.
- Abstract(参考訳): センシティブなドメインにおけるコラボレーション型機械学習は、エンタープライズデプロイメントのためのスケーラブルでプライバシ保護のソリューションを必要とする。
従来のフェデレーション学習(FL)は、単一障害点とプライバシリスクを導入し、中央サーバに依存している。
フェデレート・スプリット・ラーニング(FSL)と認可型ブロックチェーンHyperledger Fabric(HLF)を組み合わせた分散アーキテクチャを提案する。
我々のチェーンコードは、中央コーディネータを使わずに、FSLの分割モデル実行とピアツーピアアグリゲーションをオーケストレーションし、HLFの過渡的なフィールドとプライベートデータコレクション(PDC)を活用して、生データとモデルのアクティベーションをプライベートに保ちます。
CIFAR-10 と MNIST のベンチマークでは、HLF-FSL が集中的な FSL の精度と一致し、Ethereum ベースの作業と比べてエポックなトレーニング時間を短縮した。
パフォーマンスとスケーラビリティのテストは、最小限のブロックチェーンオーバーヘッドと保存された正確さを示し、エンタープライズグレードの可用性を示しています。
関連論文リスト
- Federated Learning-Enabled Hybrid Language Models for Communication-Efficient Token Transmission [87.68447072141402]
ハイブリッド言語モデル(HLM)は、エッジデバイス上でのSLM(Small Language Model)の低レイテンシ効率と、集中型サーバ上でのLLM(Large Language Model)の高精度を組み合わせたものである。
我々は、不確実性を考慮した推論とフェデレートラーニング(FL)を統合する通信効率の高いHLMフレームワークであるFedHLMを提案する。
論文 参考訳(メタデータ) (2025-06-30T02:56:11Z) - FedClust: Optimizing Federated Learning on Non-IID Data through
Weight-Driven Client Clustering [28.057411252785176]
Federated Learning(FL)は、分散型デバイス上で、ローカルデータを公開せずにコラボレーティブなモデルトレーニングを可能にする、新興の分散機械学習パラダイムである。
本稿では,局所モデル重みとクライアントデータ分布の相関を利用した新しいCFL手法であるFedClustを提案する。
論文 参考訳(メタデータ) (2024-03-07T01:50:36Z) - PFSL: Personalized & Fair Split Learning with Data & Label Privacy for
thin clients [0.5144809478361603]
PFSLは分散分割学習の新しいフレームワークであり、多数のシンクライアントが並列にトランスファー学習を行う。
クライアントモデルのパーソナライズを行うための軽量なステップを実装し,それぞれのデータ分布に対して高いパフォーマンスを実現する。
我々の精度は現在のアルゴリズムSLをはるかに上回り、いくつかの実生活ベンチマークにおける集中学習に非常に近い。
論文 参考訳(メタデータ) (2023-03-19T10:38:29Z) - FedDBL: Communication and Data Efficient Federated Deep-Broad Learning
for Histopathological Tissue Classification [65.7405397206767]
本稿では,FedDBL(Federated Deep-Broad Learning)を提案する。
FedDBLは1ラウンドの通信と限られたトレーニングサンプルで競合相手をはるかに上回り、マルチラウンドの通信で同等のパフォーマンスを達成している。
異なるクライアント間でのデータやディープモデルを共有しないため、プライバシ問題は十分に解決されており、モデルのセキュリティはモデル反転攻撃のリスクなしに保証される。
論文 参考訳(メタデータ) (2023-02-24T14:27:41Z) - Communication and Storage Efficient Federated Split Learning [19.369076939064904]
Federated Split LearningはFLの並列モデルトレーニング原則を保存する。
サーバはクライアントごとに別々のモデルをメンテナンスしなければなりません。
本稿では,コミュニケーションと記憶の効率的なフェデレーションと分割学習戦略を提案する。
論文 参考訳(メタデータ) (2023-02-11T04:44:29Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Federated Zero-Shot Learning for Visual Recognition [55.65879596326147]
本稿では,Federated Zero-Shot Learning FedZSLフレームワークを提案する。
FedZSLは、エッジデバイス上の分散データから中心的なモデルを学ぶ。
FedZSLの有効性と堅牢性は、3つのゼロショットベンチマークデータセットで実施された広範な実験によって実証された。
論文 参考訳(メタデータ) (2022-09-05T14:49:34Z) - A Hybrid Self-Supervised Learning Framework for Vertical Federated
Learning [18.82819245937653]
我々はFedHSSLという,Federated Hybrid Self-Supervised Learningフレームワークを提案する。
我々はFedHSSLメソッドがベースラインよりも大きなマージンで優れていることを実証的に実証した。
ラベルリークに関するFedHSSLの詳細な分析を行い、既存の自己監督型VFL作品ではめったに研究されていない。
論文 参考訳(メタデータ) (2022-08-18T16:15:15Z) - Server-Side Local Gradient Averaging and Learning Rate Acceleration for
Scalable Split Learning [82.06357027523262]
フェデレーテッド・ラーニング(FL)とスプリット・ラーニング(SL)は、その長所と短所を持つ2つの先駆者であり、多くのユーザ・クライアントや大規模モデルに適している。
本研究では,まずSLの基本ボトルネックを特定し,SGLRという拡張性のあるSLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-11T08:33:25Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。