論文の概要: Decentralized Federated Unlearning on Blockchain
- arxiv url: http://arxiv.org/abs/2402.16294v1
- Date: Mon, 26 Feb 2024 04:31:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 14:32:26.285074
- Title: Decentralized Federated Unlearning on Blockchain
- Title(参考訳): ブロックチェーン上の分散フェデレーションアンラーニング
- Authors: Xiao Liu, Mingyuan Li, Xu Wang, Guangsheng Yu, Wei Ni, Lixiang Li,
Haipeng Peng, Renping Liu
- Abstract要約: FLプロセスの完全性とトレーサビリティを保証するために、フェデレートドラーニング(FL)が注目を集めている。
本稿では,Chameleon Hash(CH)技術を用いてブロックチェーン構造を再設計する汎用フレームワークであるBlockFULを提案する。
我々は、勾配上昇と再学習という2つの典型的なアンラーニング手法の総合的研究を行い、効率的なアンラーニングワークフローを実証した。
- 参考スコア(独自算出の注目度): 27.614497435862766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Blockchained Federated Learning (FL) has been gaining traction for ensuring
the integrity and traceability of FL processes. Blockchained FL involves
participants training models locally with their data and subsequently
publishing the models on the blockchain, forming a Directed Acyclic Graph
(DAG)-like inheritance structure that represents the model relationship.
However, this particular DAG-based structure presents challenges in updating
models with sensitive data, due to the complexity and overhead involved. To
address this, we propose Blockchained Federated Unlearning (BlockFUL), a
generic framework that redesigns the blockchain structure using Chameleon Hash
(CH) technology to mitigate the complexity of model updating, thereby reducing
the computational and consensus costs of unlearning tasks.Furthermore, BlockFUL
supports various federated unlearning methods, ensuring the integrity and
traceability of model updates, whether conducted in parallel or serial. We
conduct a comprehensive study of two typical unlearning methods, gradient
ascent and re-training, demonstrating the efficient unlearning workflow in
these two categories with minimal CH and block update operations. Additionally,
we compare the computation and communication costs of these methods.
- Abstract(参考訳): Blockchained Federated Learning (FL)は、FLプロセスの完全性とトレーサビリティを保証するために、注目を集めている。
Blockchained FLでは、参加者がデータをローカルにトレーニングし、その後、モデルをブロックチェーン上に公開することで、モデル関係を表すDAG(Directed Acyclic Graph)のような継承構造を形成する。
しかしながら、このDAGベースの構造は、複雑さとオーバーヘッドが伴うため、センシティブなデータでモデルを更新する際の課題となる。
そこで我々は,chameleon hash(ch)技術を用いてブロックチェーン構造を再設計し,モデル更新の複雑さを軽減し,アンラーニングタスクの計算コストとコンセンサスコストを削減する汎用フレームワークであるblockfulを提案する。さらにblockfulは,並列実行とシリアル実行に関わらず,さまざまなフェデレーションアンラーニング手法をサポートし,モデル更新の完全性とトレーサビリティを保証する。
我々は、勾配上昇と再学習という2つの典型的なアンラーニング手法を包括的に研究し、これら2つのカテゴリにおける効率的なアンラーニングワークフローを最小限のCHとブロック更新操作で示す。
さらに,これらの手法の計算と通信コストを比較する。
関連論文リスト
- Digital Twin-Assisted Federated Learning with Blockchain in Multi-tier Computing Systems [67.14406100332671]
産業用 4.0 システムでは、リソース制約のあるエッジデバイスが頻繁にデータ通信を行う。
本稿では,デジタルツイン (DT) とフェデレーション付きデジタルツイン (FL) 方式を提案する。
提案手法の有効性を数値解析により検証した。
論文 参考訳(メタデータ) (2024-11-04T17:48:02Z) - CLIPErase: Efficient Unlearning of Visual-Textual Associations in CLIP [56.199779065855004]
CLIPEraseは視覚的・テキスト的関連を選択的に忘れる新しいアプローチである。
CIFAR-100とFlickr30Kデータセットの実験は、CLIPEraseがマルチモーダルサンプルのゼロショットタスクにおける指定された関連性を効果的に忘れていることを示している。
論文 参考訳(メタデータ) (2024-10-30T17:51:31Z) - A Blockchain-empowered Multi-Aggregator Federated Learning Architecture
in Edge Computing with Deep Reinforcement Learning Optimization [8.082460100928358]
フェデレーテッド・ラーニング(FL)は、機械学習アーキテクチャの追求の結果として登場した。
ネットワークインフラの進歩により、FLはエッジコンピューティングにシームレスに統合された。
ブロックチェーン技術はセキュリティを強化することを約束するが、リソース制約のあるエッジデバイスへの実践的なデプロイは依然として課題だ。
論文 参考訳(メタデータ) (2023-10-14T20:47:30Z) - The Implications of Decentralization in Blockchained Federated Learning: Evaluating the Impact of Model Staleness and Inconsistencies [2.6391879803618115]
ブロックチェーンのような民主的な環境にフェデレートされた学習のオーケストレーションをアウトソーシングすることの実践的意義について検討する。
シミュレーションを用いて、よく知られたMNISTとCIFAR-10データセットに2つの異なるMLモデルを適用することにより、ブロックチェーンFL動作を評価する。
以上の結果から,モデルの不整合がモデルの精度に及ぼす影響(予測精度の最大35%低下)が示唆された。
論文 参考訳(メタデータ) (2023-10-11T13:18:23Z) - Multi-dimensional Data Quick Query for Blockchain-based Federated Learning [6.499393722730449]
本稿では,MerkleRB-Tree と呼ばれる各ブロック内のクエリ効率を改善するための新しいデータ構造を提案する。
詳細は,多次元連続値属性と離散値属性の問合せプロセスにおいて,最小境界矩形(MBR)とブルームフィルタを利用する。
論文 参考訳(メタデータ) (2023-09-27T01:35:11Z) - A Unified Framework for Alternating Offline Model Training and Policy
Learning [62.19209005400561]
オフラインモデルに基づく強化学習では、歴史的収集データから動的モデルを学び、学習モデルと固定データセットを用いてポリシー学習を行う。
提案手法は,本手法が期待するリターンを最小限に抑えるための,反復的なオフラインMBRLフレームワークを開発する。
提案する統一型モデル政治学習フレームワークにより、我々は、広範囲の連続制御オフライン強化学習データセット上での競合性能を実現する。
論文 参考訳(メタデータ) (2022-10-12T04:58:51Z) - Secure and Efficient Federated Learning Through Layering and Sharding
Blockchain [15.197940168865271]
本稿では,新しい2層ブロックチェーン駆動型フェデレート学習システムChainFLを提案する。
インターネットネットワークをサブチェーン層内の複数のシャードに分割し、情報交換の規模を効果的に削減する。
また、DAG(Direct Acyclic Graph)ベースのメインチェーンをメインチェーン層として採用し、並列および非同期のクロスシャード検証を可能にする。
論文 参考訳(メタデータ) (2021-04-27T12:19:07Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z) - Adaptive Aggregation Networks for Class-Incremental Learning [102.20140790771265]
CIL(Class-Incremental Learning)は,段階別クラス数の増加にともなう分類モデルを学習することを目的としている。
CILの固有の問題は、古いクラスと新しいクラスの学習の間の安定性-塑性ジレンマである。
論文 参考訳(メタデータ) (2020-10-10T18:24:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。