論文の概要: BlockFUL: Enabling Unlearning in Blockchained Federated Learning
- arxiv url: http://arxiv.org/abs/2402.16294v2
- Date: Wed, 14 Aug 2024 10:44:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-15 18:06:42.113843
- Title: BlockFUL: Enabling Unlearning in Blockchained Federated Learning
- Title(参考訳): BlockFUL: ブロックチェーンフェデレーション学習におけるアンラーニングの実現
- Authors: Xiao Liu, Mingyuan Li, Xu Wang, Guangsheng Yu, Wei Ni, Lixiang Li, Haipeng Peng, Renping Liu,
- Abstract要約: フェデレートラーニング(FL)におけるアンラーニングは、モデルが複雑な継承関係を持って成長し進化するにつれて、大きな課題を提起する。
本稿では,FL内の未学習機能を実現するために,ライブチェーンとアーカイブチェーンからなる二重鎖構造を持つ新しいフレームワークを提案する。
2つの新しいアンラーニングパラダイム、すなわち並列およびシーケンシャルパラダイムは、勾配ベースおよび再学習ベースのアンラーニング手法によって効果的に実装できる。
実験により,これらの手法がデータ依存や運用上のオーバーヘッドを効果的に低減し,BlockFUL内の未学習モデル全体の性能を向上することを確認した。
- 参考スコア(独自算出の注目度): 26.47424619448623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unlearning in Federated Learning (FL) presents significant challenges, as models grow and evolve with complex inheritance relationships. This complexity is amplified when blockchain is employed to ensure the integrity and traceability of FL, where the need to edit multiple interlinked blockchain records and update all inherited models complicates the process.In this paper, we introduce Blockchained Federated Unlearning (BlockFUL), a novel framework with a dual-chain structure comprising a live chain and an archive chain for enabling unlearning capabilities within Blockchained FL. BlockFUL introduces two new unlearning paradigms, i.e., parallel and sequential paradigms, which can be effectively implemented through gradient-ascent-based and re-training-based unlearning methods. These methods enhance the unlearning process across multiple inherited models by enabling efficient consensus operations and reducing computational costs. Our extensive experiments validate that these methods effectively reduce data dependency and operational overhead, thereby boosting the overall performance of unlearning inherited models within BlockFUL on CIFAR-10 and Fashion-MNIST datasets using AlexNet, ResNet18, and MobileNetV2 models.
- Abstract(参考訳): フェデレートラーニング(FL)におけるアンラーニングは、モデルが複雑な継承関係を持って成長し進化するにつれて、大きな課題を提起する。
本稿では、Blockchained Federated Unlearning(BlockFUL)を紹介します。Blockchained FL内での非学習機能を実現するための、ライブチェーンとアーカイブチェーンで構成される、二重チェーン構造を持つ新しいフレームワークです。
BlockFULは2つの新しいアンラーニングパラダイム、すなわち並列パラダイムとシーケンシャルパラダイムを導入している。
これらの方法は、効率的なコンセンサス演算を実現し、計算コストを削減し、複数の継承モデルにわたる未学習プロセスを強化する。
CIFAR-10におけるBlockFULとFashion-MNISTデータセットにおいて、AlexNet、ResNet18、MobileNetV2モデルを用いて、これらの手法がデータ依存性と運用上のオーバーヘッドを効果的に低減し、学習されていない継承モデルの全体的な性能を向上させることを検証する。
関連論文リスト
- Digital Twin-Assisted Federated Learning with Blockchain in Multi-tier Computing Systems [67.14406100332671]
産業用 4.0 システムでは、リソース制約のあるエッジデバイスが頻繁にデータ通信を行う。
本稿では,デジタルツイン (DT) とフェデレーション付きデジタルツイン (FL) 方式を提案する。
提案手法の有効性を数値解析により検証した。
論文 参考訳(メタデータ) (2024-11-04T17:48:02Z) - CLIPErase: Efficient Unlearning of Visual-Textual Associations in CLIP [56.199779065855004]
CLIPEraseは視覚的・テキスト的関連を選択的に忘れる新しいアプローチである。
CIFAR-100とFlickr30Kデータセットの実験は、CLIPEraseがマルチモーダルサンプルのゼロショットタスクにおける指定された関連性を効果的に忘れていることを示している。
論文 参考訳(メタデータ) (2024-10-30T17:51:31Z) - A Blockchain-empowered Multi-Aggregator Federated Learning Architecture
in Edge Computing with Deep Reinforcement Learning Optimization [8.082460100928358]
フェデレーテッド・ラーニング(FL)は、機械学習アーキテクチャの追求の結果として登場した。
ネットワークインフラの進歩により、FLはエッジコンピューティングにシームレスに統合された。
ブロックチェーン技術はセキュリティを強化することを約束するが、リソース制約のあるエッジデバイスへの実践的なデプロイは依然として課題だ。
論文 参考訳(メタデータ) (2023-10-14T20:47:30Z) - The Implications of Decentralization in Blockchained Federated Learning: Evaluating the Impact of Model Staleness and Inconsistencies [2.6391879803618115]
ブロックチェーンのような民主的な環境にフェデレートされた学習のオーケストレーションをアウトソーシングすることの実践的意義について検討する。
シミュレーションを用いて、よく知られたMNISTとCIFAR-10データセットに2つの異なるMLモデルを適用することにより、ブロックチェーンFL動作を評価する。
以上の結果から,モデルの不整合がモデルの精度に及ぼす影響(予測精度の最大35%低下)が示唆された。
論文 参考訳(メタデータ) (2023-10-11T13:18:23Z) - Multi-dimensional Data Quick Query for Blockchain-based Federated Learning [6.499393722730449]
本稿では,MerkleRB-Tree と呼ばれる各ブロック内のクエリ効率を改善するための新しいデータ構造を提案する。
詳細は,多次元連続値属性と離散値属性の問合せプロセスにおいて,最小境界矩形(MBR)とブルームフィルタを利用する。
論文 参考訳(メタデータ) (2023-09-27T01:35:11Z) - A Unified Framework for Alternating Offline Model Training and Policy
Learning [62.19209005400561]
オフラインモデルに基づく強化学習では、歴史的収集データから動的モデルを学び、学習モデルと固定データセットを用いてポリシー学習を行う。
提案手法は,本手法が期待するリターンを最小限に抑えるための,反復的なオフラインMBRLフレームワークを開発する。
提案する統一型モデル政治学習フレームワークにより、我々は、広範囲の連続制御オフライン強化学習データセット上での競合性能を実現する。
論文 参考訳(メタデータ) (2022-10-12T04:58:51Z) - Secure and Efficient Federated Learning Through Layering and Sharding
Blockchain [15.197940168865271]
本稿では,新しい2層ブロックチェーン駆動型フェデレート学習システムChainFLを提案する。
インターネットネットワークをサブチェーン層内の複数のシャードに分割し、情報交換の規模を効果的に削減する。
また、DAG(Direct Acyclic Graph)ベースのメインチェーンをメインチェーン層として採用し、並列および非同期のクロスシャード検証を可能にする。
論文 参考訳(メタデータ) (2021-04-27T12:19:07Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z) - Adaptive Aggregation Networks for Class-Incremental Learning [102.20140790771265]
CIL(Class-Incremental Learning)は,段階別クラス数の増加にともなう分類モデルを学習することを目的としている。
CILの固有の問題は、古いクラスと新しいクラスの学習の間の安定性-塑性ジレンマである。
論文 参考訳(メタデータ) (2020-10-10T18:24:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。