論文の概要: Proof of Learning (PoLe): Empowering Machine Learning with Consensus
Building on Blockchains
- arxiv url: http://arxiv.org/abs/2007.15145v1
- Date: Wed, 29 Jul 2020 22:53:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 21:02:22.553426
- Title: Proof of Learning (PoLe): Empowering Machine Learning with Consensus
Building on Blockchains
- Title(参考訳): Proof of Learning (PoLe): ブロックチェーン上の合意構築によるマシンラーニングの強化
- Authors: Yixiao Lan, Yuan Liu, Boyang Li
- Abstract要約: ニューラルネットワーク(NN)の最適化に向けて,新たなコンセンサスメカニズムであるPoLe(Proof of Learning)を提案する。
我々のメカニズムでは、トレーニング/テストデータはブロックチェーンネットワーク全体(BCN)にリリースされ、コンセンサスノードはデータ上でNNモデルをトレーニングします。
我々はPoLeがより安定したブロック生成率を達成でき、それによってより効率的なトランザクション処理が実現できることを示す。
- 参考スコア(独自算出の注目度): 7.854034211489588
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The progress of deep learning (DL), especially the recent development of
automatic design of networks, has brought unprecedented performance gains at
heavy computational cost. On the other hand, blockchain systems routinely
perform a huge amount of computation that does not achieve practical purposes
in order to build Proof-of-Work (PoW) consensus from decentralized
participants. In this paper, we propose a new consensus mechanism, Proof of
Learning (PoLe), which directs the computation spent for consensus toward
optimization of neural networks (NN). In our mechanism, the training/testing
data are released to the entire blockchain network (BCN) and the consensus
nodes train NN models on the data, which serves as the proof of learning. When
the consensus on the BCN considers a NN model to be valid, a new block is
appended to the blockchain. We experimentally compare the PoLe protocol with
Proof of Work (PoW) and show that PoLe can achieve a more stable block
generation rate, which leads to more efficient transaction processing. We also
introduce a novel cheating prevention mechanism, Secure Mapping Layer (SML),
which can be straightforwardly implemented as a linear NN layer. Empirical
evaluation shows that SML can detect cheating nodes at small cost to the
predictive performance.
- Abstract(参考訳): 深層学習(DL)の進歩、特に最近のネットワークの自動設計の発展は、計算コストで前例のない性能向上をもたらした。
一方、ブロックチェーンシステムは、分散参加者からのProof-of-Work(PoW)コンセンサスを構築するために、実用的な目的を達成することができない大量の計算を定期的に実行する。
本稿では,ニューラルネットワーク(NN)の最適化に向けて,コンセンサスに費やした計算を指示する,新しいコンセンサスメカニズムであるProof of Learning(PoLe)を提案する。
このメカニズムでは、トレーニング/テストデータをブロックチェーンネットワーク全体(BCN)にリリースし、コンセンサスノードがデータ上でNNモデルをトレーニングする。
BCNのコンセンサスがNNモデルの有効性を判断すると、ブロックチェーンに新たなブロックが追加される。
我々は,PoLeプロトコルとProof of Work(PoW)を実験的に比較し,PoLeがより安定したブロック生成率を実現し,より効率的なトランザクション処理を実現することを示す。
また、線形NN層として簡単に実装可能な、新しい不正防止機構であるセキュアマッピング層(SML)も導入する。
経験的評価は、SMLが予測性能に対して少ないコストで不正ノードを検出できることを示している。
関連論文リスト
- A Model-Based Machine Learning Approach for Assessing the Performance of
Blockchain Applications [0.0]
ブロックチェーンのパフォーマンスを予測するために、機械学習(ML)モデルベースの手法を使用します。
我々は、最適なブロックチェーン構成を調査できるSalp Swarm Optimization (SO) MLモデルを採用している。
この$k$NNモデルはSVMを5%上回り、ISOは通常のSOに比べて4%の不正確な偏差を減少させることを示した。
論文 参考訳(メタデータ) (2023-09-20T10:39:21Z) - On-Device Learning with Binary Neural Networks [2.7040098749051635]
我々は、最近のCL分野の進歩とBNN(Binary Neural Networks)の効率を取り入れたCLソリューションを提案する。
バックボーンとしてのバイナリネットワークの選択は、低消費電力デバイスの制約を満たすために不可欠である。
論文 参考訳(メタデータ) (2023-08-29T13:48:35Z) - Proof-of-Federated-Learning-Subchain: Free Partner Selection Subchain
Based on Federated Learning [14.16827294216978]
我々はこのギャップを埋めるためにProof-of-Federated-Learning-Subchain(PoFLSC)という新しいコンセンサスを提案した。
サブチェーン内の20人の鉱夫を模擬し,PoFLSCの有効性を実証した。
論文 参考訳(メタデータ) (2023-07-30T23:39:58Z) - Compacting Binary Neural Networks by Sparse Kernel Selection [58.84313343190488]
本稿は,BNNにおけるバイナリカーネルの分散化がほぼ不可能であることを示すものである。
我々は、選択過程をエンドツーエンドに最適化するだけでなく、選択したコードワードの非反復的占有を維持できる置換ストレートスルー推定器(PSTE)を開発した。
実験により,提案手法はモデルサイズとビット幅の計算コストの両方を削減し,同等の予算下での最先端のBNNと比較して精度の向上を実現する。
論文 参考訳(メタデータ) (2023-03-25T13:53:02Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Blockchain Framework for Artificial Intelligence Computation [1.8148198154149393]
ブロック検証とコンセンサス機構を深層強化学習プロセスとして設計する。
当社の手法は,次世代のパブリックブロックチェーンネットワークの設計に使用されている。
論文 参考訳(メタデータ) (2022-02-23T01:44:27Z) - Training Massive Deep Neural Networks in a Smart Contract: A New Hope [5.0737599874451105]
ディープニューラルネットワーク(DNN)は、DeFiやNFTトレーディングといったブロックチェーンアプリケーションで非常に有用である。
本稿では,A New Hope (ANH) と呼ばれる新しいプラットフォーム設計を提案する。
i) 計算集約的なスマートコントラクトトランザクションは、結果を必要とするノード、あるいは特定のサービスプロバイダによってのみ実行される、(ii) 非決定論的スマートコントラクトトランザクションは、不確実な結果をもたらす、という考え方です。
論文 参考訳(メタデータ) (2021-06-28T14:38:44Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL) with
Lazy Clients [124.48732110742623]
フェデレートラーニング(FL)にブロックチェーンを統合する新しいフレームワークを提案する。
BLADE-FLは、プライバシー保護、改ざん抵抗、学習の効果的な協力の点で優れたパフォーマンスを持っている。
遅延クライアントは、他人のトレーニングされたモデルを盗聴し、不正行為を隠すために人工的なノイズを加える。
論文 参考訳(メタデータ) (2020-12-02T12:18:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。