論文の概要: FBChain: A Blockchain-based Federated Learning Model with Efficiency and
Secure Communication
- arxiv url: http://arxiv.org/abs/2312.00035v1
- Date: Tue, 21 Nov 2023 01:36:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 03:55:21.995244
- Title: FBChain: A Blockchain-based Federated Learning Model with Efficiency and
Secure Communication
- Title(参考訳): FBChain: 効率性とセキュア通信を備えたブロックチェーンベースのフェデレーション学習モデル
- Authors: Yang Li, Chunhe Xia, Wei Liu, Weidong Zhou, Chen Chen and Tianbo Wang
- Abstract要約: 本稿では、上記の2つの問題を克服するフェデレートラーニング(FBChain)モデルを提案する。
まず、ブロックチェーンの不変性を利用して、ローカルモデルパラメータのグローバルモデルとハッシュ値を格納する。
第二に、Proof of Weighted Link Speed (PoWLS)コンセンサスアルゴリズムは、より重み付きリンク速度の高いノードを包括的に選択し、グローバルモデルとパッケージブロックを集約する。
- 参考スコア(独自算出の注目度): 13.205547873691943
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Privacy and security in the parameter transmission process of federated
learning are currently among the most prominent concerns. However, there are
two thorny problems caused by unprotected communication methods:
"parameter-leakage" and "inefficient-communication". This article proposes
Blockchain-based Federated Learning (FBChain) model for federated learning
parameter communication to overcome the above two problems. First, we utilize
the immutability of blockchain to store the global model and hash value of
local model parameters in case of tampering during the communication process,
protect data privacy by encrypting parameters, and verify data consistency by
comparing the hash values of local parameters, thus addressing the
"parameter-leakage" problem. Second, the Proof of Weighted Link Speed (PoWLS)
consensus algorithm comprehensively selects nodes with the higher weighted link
speed to aggregate global model and package blocks, thereby solving the
"inefficient-communication" problem. Experimental results demonstrate the
effectiveness of our proposed FBChain model and its ability to improve model
communication efficiency in federated learning.
- Abstract(参考訳): 連合学習のパラメータ伝達プロセスにおけるプライバシーとセキュリティは、現在最も顕著な懸念事項である。
しかし、保護されていない通信方法によって引き起こされる悪質な問題は、"parameter-leakage" と "in efficient-communication" の2つある。
本稿では、上記の2つの問題を克服するために、ブロックチェーンベースのフェデレートラーニング(FBChain)モデルを提案する。
まず、ブロックチェーンの不変性を利用して、通信プロセス中の改ざん時にローカルモデルパラメータのグローバルモデルとハッシュ値を格納し、パラメータを暗号化することでデータのプライバシを保護し、ローカルパラメータのハッシュ値を比較してデータの一貫性を検証する。
第二に、Proof of Weighted Link Speed (PoWLS)コンセンサスアルゴリズムは、より高重み付きリンク速度のノードを包括的に選択することで、グローバルモデルとパッケージブロックを集約し、"非効率な通信"問題を解決する。
実験により,FBChainモデルの有効性と,フェデレート学習におけるモデル通信効率を向上させる能力を示す。
関連論文リスト
- PPBFL: A Privacy Protected Blockchain-based Federated Learning Model [6.278098707317501]
フェデレート学習の安全性を高めるために,保護型フェデレート学習モデル(PPBFL)を提案する。
本稿では,訓練ノードのインセンティブを目的とした,連邦学習に適した訓練作業証明(PoTW)アルゴリズムを提案する。
また、リングシグネチャ技術を利用した新たなミックストランザクション機構を提案し、ローカルトレーニングクライアントのIDプライバシをよりよく保護する。
論文 参考訳(メタデータ) (2024-01-02T13:13:28Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - BRFL: A Blockchain-based Byzantine-Robust Federated Learning Model [8.19957400564017]
分散ノードにデータを格納し、モデルパラメータのみを共有するフェデレーション学習は、この問題に対処するために大きな注目を集めている。
悪質なローカルモデルが集約中のグローバルモデルのパフォーマンスを損なうという、ビザンティン攻撃問題(英語版)によるフェデレートラーニング(英語版)において、課題が生じる。
本稿では、フェデレートラーニングとブロックチェーン技術を組み合わせたByzantine-Robust Federated Learning(BRLF)モデルの統合を提案する。
論文 参考訳(メタデータ) (2023-10-20T10:21:50Z) - FedDD: Toward Communication-efficient Federated Learning with
Differential Parameter Dropout [13.056472977860976]
フェデレートラーニング(FL)では、頻繁にモデルパラメータを交換する必要があるため、長い通信遅延が発生する。
差分パラメータDropout (FedDD) を用いたフェデレーション学習手法を提案する。
FedDDは2つの主要なモジュールで構成されている。
論文 参考訳(メタデータ) (2023-08-31T16:10:22Z) - Communication Efficient Federated Learning for Multilingual Neural
Machine Translation with Adapter [21.512817959760007]
Federated Multilingual Neural Machine Translation (Fed-MNMT)は、限られた言語資源を持つ機関にとって有望なパラダイムとして登場した。
このアプローチにより、複数の機関がクライアントとして行動し、集中的なトレーニングのためにセンシティブなデータを収集するのではなく、モデル同期を通じて統一されたモデルをトレーニングできる。
しかし, 事前学習言語モデル (PLM) のサイズが大きくなるにつれ, 同期時のパラメータ伝達の通信コストは, 訓練速度のボトルネックとなっている。
PLMを凍結し,クライアント間でのみ軽量なアダプタモジュールを転送することで,この問題に対処する通信効率の高いFed-MNMTフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-21T12:48:38Z) - FedPerm: Private and Robust Federated Learning by Parameter Permutation [2.406359246841227]
Federated Learning(FL)は、相互に信頼できないクライアントが共通の機械学習モデルを共同でトレーニングできるようにする分散学習パラダイムである。
クライアントデータのプライバシはFLで最重要である。同時に、モデルが敵のクライアントからの攻撃から保護されなければならない。
我々は、データプライバシを増幅する新しいモデル内パラメータシャッフル技術と、クライアントのモデル更新の暗号化集約を可能にするPrivate Information Retrieval(PIR)ベースの技術を組み合わせることで、これらの問題に対処する新しいFLアルゴリズムであるFedPermを提案する。
論文 参考訳(メタデータ) (2022-08-16T19:40:28Z) - FedNew: A Communication-Efficient and Privacy-Preserving Newton-Type
Method for Federated Learning [75.46959684676371]
我々は、クライアントからPSにヘッセン情報を送信する必要がないFedNewという新しいフレームワークを紹介した。
FedNewは勾配情報を隠蔽し、既存の最先端技術と比べてプライバシー保護のアプローチをもたらす。
論文 参考訳(メタデータ) (2022-06-17T15:21:39Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - Coded Stochastic ADMM for Decentralized Consensus Optimization with Edge
Computing [113.52575069030192]
セキュリティ要件の高いアプリケーションを含むビッグデータは、モバイルデバイスやドローン、車両など、複数の異種デバイスに収集され、格納されることが多い。
通信コストとセキュリティ要件の制限のため、核融合センターにデータを集約するのではなく、分散的に情報を抽出することが最重要となる。
分散エッジノードを介してデータを局所的に処理するマルチエージェントシステムにおいて,モデルパラメータを学習する問題を考える。
分散学習モデルを開発するために,乗算器アルゴリズムの最小バッチ交互方向法(ADMM)のクラスについて検討した。
論文 参考訳(メタデータ) (2020-10-02T10:41:59Z) - Harnessing Wireless Channels for Scalable and Privacy-Preserving
Federated Learning [56.94644428312295]
無線接続は、フェデレートラーニング(FL)の実現に有効である
Channel randomnessperturbs 各ワーカはモデル更新をインバージョンし、複数のワーカはバンド幅に大きな干渉を発生させる。
A-FADMMでは、すべてのワーカーがモデル更新をアナログ送信を介して単一のチャンネルを使用してパラメータサーバにアップロードする。
これは通信帯域幅を節約するだけでなく、各ワーカーの正確なモデル更新軌跡を任意の盗聴者から隠蔽する。
論文 参考訳(メタデータ) (2020-07-03T16:31:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。