論文の概要: ML2SC: Deploying Machine Learning Models as Smart Contracts on the Blockchain
- arxiv url: http://arxiv.org/abs/2404.16967v1
- Date: Thu, 28 Mar 2024 23:55:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-05 18:04:17.074048
- Title: ML2SC: Deploying Machine Learning Models as Smart Contracts on the Blockchain
- Title(参考訳): ML2SC: ブロックチェーン上のスマートコントラクトとしてマシンラーニングモデルをデプロイする
- Authors: Zhikai Li, Steve Vott, Bhaskar Krishnamachar,
- Abstract要約: 我々は、Pytorchで記述された多層パーセプトロン(MLP)モデルをSolidityスマートコントラクトバージョンに変換することができる、PyTorch to SolidityトランスレータであるMachine Learning to Contract (ML2SC)を紹介する。
生成されたスマートコントラクトをデプロイした後、PyTorchを使用してモデルをオフチェーンでトレーニングし、取得したウェイトとバイアスを関数コールを使用してスマートコントラクトに転送します。
- 参考スコア(独自算出の注目度): 1.433758865948252
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the growing concern of AI safety, there is a need to trust the computations done by machine learning (ML) models. Blockchain technology, known for recording data and running computations transparently and in a tamper-proof manner, can offer this trust. One significant challenge in deploying ML Classifiers on-chain is that while ML models are typically written in Python using an ML library such as Pytorch, smart contracts deployed on EVM-compatible blockchains are written in Solidity. We introduce Machine Learning to Smart Contract (ML2SC), a PyTorch to Solidity translator that can automatically translate multi-layer perceptron (MLP) models written in Pytorch to Solidity smart contract versions. ML2SC uses a fixed-point math library to approximate floating-point computation. After deploying the generated smart contract, we can train our models off-chain using PyTorch and then further transfer the acquired weights and biases to the smart contract using a function call. Finally, the model inference can also be done with a function call providing the input. We mathematically model the gas costs associated with deploying, updating model parameters, and running inference on these models on-chain, showing that the gas costs increase linearly in various parameters associated with an MLP. We present empirical results matching our modeling. We also evaluate the classification accuracy showing that the outputs obtained by our transparent on-chain implementation are identical to the original off-chain implementation with Pytorch.
- Abstract(参考訳): AIの安全性に対する懸念が高まっているため、マシンラーニング(ML)モデルによる計算を信頼する必要がある。
ブロックチェーン技術は、データの記録と計算の透明な実行で知られており、この信頼を提供する。
ML分類器をチェーン上にデプロイする際の大きな課題のひとつは、MLモデルは一般的にPytorchなどのMLライブラリを使用してPythonで記述されるが、EVM互換のブロックチェーンにデプロイされるスマートコントラクトはSolidityで記述されていることだ。
我々は、Pytorchで記述された多層パーセプトロン(MLP)モデルをSolidityスマートコントラクトバージョンに自動的に変換できる、PyTorch to SolidityトランスレータであるML2SC(Machine Learning to Smart Contract)を紹介した。
ML2SCは浮動小数点演算を近似するために固定点数学ライブラリを使用する。
生成されたスマートコントラクトをデプロイした後、PyTorchを使用してモデルをオフチェーンでトレーニングし、取得したウェイトとバイアスを関数コールを使用してスマートコントラクトに転送します。
最後に、モデル推論は入力を提供する関数呼び出しで行うこともできる。
我々は, モデルパラメータの配置, 更新, およびこれらのモデル上での推論に伴うガスコストを数学的にモデル化し, MLPに関連する様々なパラメータにおいて, ガスコストが線形に増加することを示す。
モデリングと一致する実験結果を示す。
また、透明なオンチェーン実装によって得られた出力が、Pytorchによる元のオフチェーン実装と同一であることを示す分類精度も評価した。
関連論文リスト
- Promises and Pitfalls of Generative Masked Language Modeling: Theoretical Framework and Practical Guidelines [74.42485647685272]
GMLM(Generative Masked Language Models)に焦点を当てる。
我々は,マルコフ連鎖の入力として使用されるマスキングにより,データ分布の条件付き確率に適合するモデルを訓練し,モデルからサンプルを抽出する。
我々は,T5モデルを並列デコーディングに適応させ,最小品質の犠牲を伴って機械翻訳における2~3倍の高速化を実現した。
論文 参考訳(メタデータ) (2024-07-22T18:00:00Z) - Patch-Level Training for Large Language Models [69.67438563485887]
本稿では,Large Language Models (LLM) に対するパッチレベルのトレーニングを紹介する。
パッチレベルのトレーニングでは、言語モデルの短いパッチシーケンスをフィードし、次のパッチを予測するようにトレーニングします。
これに続いて、モデルは推論モードに合わせて、残りのトレーニングデータに対するトークンレベルのトレーニングを継続する。
論文 参考訳(メタデータ) (2024-07-17T15:48:39Z) - In-Context Language Learning: Architectures and Algorithms [73.93205821154605]
我々は、文脈言語学習(ICLL)において、私たちが用語する新しいモデル問題群(英語版)のレンズを通してICLを研究する。
我々は,通常のICLLタスクにおいて,多種多様なニューラルシーケンスモデルを評価する。
論文 参考訳(メタデータ) (2024-01-23T18:59:21Z) - A Model-Based Machine Learning Approach for Assessing the Performance of
Blockchain Applications [0.0]
ブロックチェーンのパフォーマンスを予測するために、機械学習(ML)モデルベースの手法を使用します。
我々は、最適なブロックチェーン構成を調査できるSalp Swarm Optimization (SO) MLモデルを採用している。
この$k$NNモデルはSVMを5%上回り、ISOは通常のSOに比べて4%の不正確な偏差を減少させることを示した。
論文 参考訳(メタデータ) (2023-09-20T10:39:21Z) - CLAWSAT: Towards Both Robust and Accurate Code Models [74.57590254102311]
比較学習(CL)と逆学習を統合して、コードモデルの堅牢性と精度を協調的に最適化する。
私たちの知る限りでは、これはコードモデルにおける(マルチビュー)コードの難読化の堅牢性と正確性について調査し、活用する最初の体系的な研究です。
論文 参考訳(メタデータ) (2022-11-21T18:32:50Z) - PyHHMM: A Python Library for Heterogeneous Hidden Markov Models [63.01207205641885]
PyHHMM は Heterogeneous-Hidden Markov Models (HHMM) のオブジェクト指向Python実装である。
PyHHMMは、異種観測モデル、データ推論の欠如、異なるモデルの順序選択基準、半教師付きトレーニングなど、同様のフレームワークではサポートされない機能を強調している。
PyHHMMは、numpy、scipy、scikit-learn、およびシーボーンPythonパッケージに依存しており、Apache-2.0ライセンスの下で配布されている。
論文 参考訳(メタデータ) (2022-01-12T07:32:36Z) - Tribuo: Machine Learning with Provenance in Java [0.0]
トレーニング、型安全性、ランタイムチェック、自動記録をひとつのフレームワークに統合するJava MLライブラリであるTribuoを紹介します。
Tribuoのモデルと評価はすべて、トレーニングアルゴリズムとともに、入力データの完全な処理パイプラインを記録している。
論文 参考訳(メタデータ) (2021-10-06T19:10:50Z) - COMBO: State-of-the-Art Morphosyntactic Analysis [0.0]
COMBOは、音声の正確なタグ付け、形態解析、補綴、および(強化された)依存性解析のための完全に神経的なNLPシステムである。
隠れた層から抽出したベクトル表現を公開しながら、分類的形態合成特性を予測する。
40以上の言語で、トレーニング済みのモデルを自動的にダウンロードして、Pythonパッケージをインストールするのは簡単です。
論文 参考訳(メタデータ) (2021-09-11T20:00:20Z) - OmniLytics: A Blockchain-based Secure Data Market for Decentralized
Machine Learning [3.9256804549871553]
我々は機械学習アプリケーションのためのセキュアなデータ取引マーケットプレースであるOmniLyticsを提案する。
データオーナは、プライベートデータをコントリビュートして、モデルオーナが要求するMLモデルを集合的にトレーニングし、データコントリビューションの補償を受けることができる。
OmniLyticsは、1)好奇心の強いデータ所有者に対するモデルセキュリティ、2)好奇心の強いモデルとデータ所有者に対するデータセキュリティ、3)有毒なモデルトレーニングに対する欠陥結果を提供する悪意のあるデータ所有者へのレジリエンス、4)支払いを回避しようとする悪意のあるモデルオーナーへのレジリエンスを提供する。
論文 参考訳(メタデータ) (2021-07-12T08:28:15Z) - A Bytecode-based Approach for Smart Contract Classification [10.483992071557195]
ブロックチェーンプラットフォームにデプロイされるスマートコントラクトの数は指数関数的に増えているため、ユーザは手動のスクリーニングによって望ましいサービスを見つけることが難しくなっている。
スマートコントラクト分類に関する最近の研究は、契約ソースコードに基づく自然言語処理(NLP)ソリューションに焦点を当てている。
本稿では,これらの問題を解決するために,ソースコードの代わりにコントラクトバイトコードの特徴に基づく分類モデルを提案する。
論文 参考訳(メタデータ) (2021-05-31T03:00:29Z) - LAVA NAT: A Non-Autoregressive Translation Model with Look-Around
Decoding and Vocabulary Attention [54.18121922040521]
非自己回帰翻訳(NAT)モデルは、1つの前方通過で複数のトークンを生成する。
これらのNATモデルは、しばしば多重性の問題に悩まされ、重複トークンや欠落トークンを生成する。
本稿では,この問題を解決するための新しい方法として,Look-Around(LA)戦略とVocabulary Attention(VA)メカニズムを提案する。
論文 参考訳(メタデータ) (2020-02-08T04:11:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。