論文の概要: Proof of Learning (PoLe): Empowering Machine Learning with Consensus
Building on Blockchains
- arxiv url: http://arxiv.org/abs/2007.15145v1
- Date: Wed, 29 Jul 2020 22:53:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 21:02:22.553426
- Title: Proof of Learning (PoLe): Empowering Machine Learning with Consensus
Building on Blockchains
- Title(参考訳): Proof of Learning (PoLe): ブロックチェーン上の合意構築によるマシンラーニングの強化
- Authors: Yixiao Lan, Yuan Liu, Boyang Li
- Abstract要約: ニューラルネットワーク(NN)の最適化に向けて,新たなコンセンサスメカニズムであるPoLe(Proof of Learning)を提案する。
我々のメカニズムでは、トレーニング/テストデータはブロックチェーンネットワーク全体(BCN)にリリースされ、コンセンサスノードはデータ上でNNモデルをトレーニングします。
我々はPoLeがより安定したブロック生成率を達成でき、それによってより効率的なトランザクション処理が実現できることを示す。
- 参考スコア(独自算出の注目度): 7.854034211489588
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The progress of deep learning (DL), especially the recent development of
automatic design of networks, has brought unprecedented performance gains at
heavy computational cost. On the other hand, blockchain systems routinely
perform a huge amount of computation that does not achieve practical purposes
in order to build Proof-of-Work (PoW) consensus from decentralized
participants. In this paper, we propose a new consensus mechanism, Proof of
Learning (PoLe), which directs the computation spent for consensus toward
optimization of neural networks (NN). In our mechanism, the training/testing
data are released to the entire blockchain network (BCN) and the consensus
nodes train NN models on the data, which serves as the proof of learning. When
the consensus on the BCN considers a NN model to be valid, a new block is
appended to the blockchain. We experimentally compare the PoLe protocol with
Proof of Work (PoW) and show that PoLe can achieve a more stable block
generation rate, which leads to more efficient transaction processing. We also
introduce a novel cheating prevention mechanism, Secure Mapping Layer (SML),
which can be straightforwardly implemented as a linear NN layer. Empirical
evaluation shows that SML can detect cheating nodes at small cost to the
predictive performance.
- Abstract(参考訳): 深層学習(DL)の進歩、特に最近のネットワークの自動設計の発展は、計算コストで前例のない性能向上をもたらした。
一方、ブロックチェーンシステムは、分散参加者からのProof-of-Work(PoW)コンセンサスを構築するために、実用的な目的を達成することができない大量の計算を定期的に実行する。
本稿では,ニューラルネットワーク(NN)の最適化に向けて,コンセンサスに費やした計算を指示する,新しいコンセンサスメカニズムであるProof of Learning(PoLe)を提案する。
このメカニズムでは、トレーニング/テストデータをブロックチェーンネットワーク全体(BCN)にリリースし、コンセンサスノードがデータ上でNNモデルをトレーニングする。
BCNのコンセンサスがNNモデルの有効性を判断すると、ブロックチェーンに新たなブロックが追加される。
我々は,PoLeプロトコルとProof of Work(PoW)を実験的に比較し,PoLeがより安定したブロック生成率を実現し,より効率的なトランザクション処理を実現することを示す。
また、線形NN層として簡単に実装可能な、新しい不正防止機構であるセキュアマッピング層(SML)も導入する。
経験的評価は、SMLが予測性能に対して少ないコストで不正ノードを検出できることを示している。
関連論文リスト
- Proof-of-Collaborative-Learning: A Multi-winner Federated Learning Consensus Algorithm [2.5203968759841158]
協調学習(PoCL, Proof-of-Collaborative-Learning)は,多自由度学習による協調学習によるコンセンサス機構である。
PoCLはブロックチェーンのパワーをリダイレクトして、フェデレートされた学習モデルをトレーニングする。
鉱夫の局所訓練モデルの効率性を確保するための新しい評価機構を提案する。
論文 参考訳(メタデータ) (2024-07-17T21:14:05Z) - Enhancing Trust and Privacy in Distributed Networks: A Comprehensive Survey on Blockchain-based Federated Learning [51.13534069758711]
ブロックチェーンのような分散型アプローチは、複数のエンティティ間でコンセンサスメカニズムを実装することで、魅力的なソリューションを提供する。
フェデレートラーニング(FL)は、参加者がデータのプライバシを保護しながら、協力的にモデルをトレーニングすることを可能にする。
本稿では,ブロックチェーンのセキュリティ機能とFLのプライバシ保護モデルトレーニング機能の相乗効果について検討する。
論文 参考訳(メタデータ) (2024-03-28T07:08:26Z) - Robust softmax aggregation on blockchain based federated learning with convergence guarantee [11.955062839855334]
本稿では,ブロックチェーンに基づくフェデレーション学習フレームワークを提案する。
まず、よくテストされた実証・オブ・ステークコンセンサス機構を利用するブロックチェーンベースの新しいフェデレーション学習アーキテクチャを提案する。
第2に,アグリゲーションプロセスの堅牢性を確保するために,新しいソフトマックスアグリゲーション法を設計する。
論文 参考訳(メタデータ) (2023-11-13T02:25:52Z) - A Model-Based Machine Learning Approach for Assessing the Performance of
Blockchain Applications [0.0]
ブロックチェーンのパフォーマンスを予測するために、機械学習(ML)モデルベースの手法を使用します。
我々は、最適なブロックチェーン構成を調査できるSalp Swarm Optimization (SO) MLモデルを採用している。
この$k$NNモデルはSVMを5%上回り、ISOは通常のSOに比べて4%の不正確な偏差を減少させることを示した。
論文 参考訳(メタデータ) (2023-09-20T10:39:21Z) - On-Device Learning with Binary Neural Networks [2.7040098749051635]
我々は、最近のCL分野の進歩とBNN(Binary Neural Networks)の効率を取り入れたCLソリューションを提案する。
バックボーンとしてのバイナリネットワークの選択は、低消費電力デバイスの制約を満たすために不可欠である。
論文 参考訳(メタデータ) (2023-08-29T13:48:35Z) - Compacting Binary Neural Networks by Sparse Kernel Selection [58.84313343190488]
本稿は,BNNにおけるバイナリカーネルの分散化がほぼ不可能であることを示すものである。
我々は、選択過程をエンドツーエンドに最適化するだけでなく、選択したコードワードの非反復的占有を維持できる置換ストレートスルー推定器(PSTE)を開発した。
実験により,提案手法はモデルサイズとビット幅の計算コストの両方を削減し,同等の予算下での最先端のBNNと比較して精度の向上を実現する。
論文 参考訳(メタデータ) (2023-03-25T13:53:02Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Blockchain Framework for Artificial Intelligence Computation [1.8148198154149393]
ブロック検証とコンセンサス機構を深層強化学習プロセスとして設計する。
当社の手法は,次世代のパブリックブロックチェーンネットワークの設計に使用されている。
論文 参考訳(メタデータ) (2022-02-23T01:44:27Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL) with
Lazy Clients [124.48732110742623]
フェデレートラーニング(FL)にブロックチェーンを統合する新しいフレームワークを提案する。
BLADE-FLは、プライバシー保護、改ざん抵抗、学習の効果的な協力の点で優れたパフォーマンスを持っている。
遅延クライアントは、他人のトレーニングされたモデルを盗聴し、不正行為を隠すために人工的なノイズを加える。
論文 参考訳(メタデータ) (2020-12-02T12:18:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。