論文の概要: Generation of Optimized Solidity Code for Machine Learning Models using LLMs
- arxiv url: http://arxiv.org/abs/2503.06203v1
- Date: Sat, 08 Mar 2025 13:12:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:45:33.930919
- Title: Generation of Optimized Solidity Code for Machine Learning Models using LLMs
- Title(参考訳): LLMを用いた機械学習モデルのための最適固形コードの生成
- Authors: Nikumbh Sarthak Sham, Sandip Chakraborty, Shamik Sural,
- Abstract要約: 本稿では,MLモデルの参照パスと,オフチェーンをトレーニングしたウェイトを,Large Language Models (LLMs) を用いたソリデーティコードに変換する,新たなアプローチを提案する。
また,MLモデルの精度を検証するために生成したコードを用いた分散化アプリケーションの概念実証も開発した。
- 参考スコア(独自算出の注目度): 5.07666452437053
- License:
- Abstract: While a plethora of machine learning (ML) models are currently available, along with their implementation on disparate platforms, there is hardly any verifiable ML code which can be executed on public blockchains. We propose a novel approach named LMST that enables conversion of the inferencing path of an ML model as well as its weights trained off-chain into Solidity code using Large Language Models (LLMs). Extensive prompt engineering is done to achieve gas cost optimization beyond mere correctness of the produced code, while taking into consideration the capabilities and limitations of the Ethereum Virtual Machine. We have also developed a proof of concept decentralized application using the code so generated for verifying the accuracy claims of the underlying ML model. An extensive set of experiments demonstrate the feasibility of deploying ML models on blockchains through automated code translation using LLMs.
- Abstract(参考訳): 多くの機械学習(ML)モデルが現在利用可能であり、異なるプラットフォーム上で実装されているが、パブリックブロックチェーン上で実行できる検証可能なMLコードは、ほとんどない。
本稿では,MLモデルの参照パスの変換とオフチェーンのトレーニングを行ったウェイトを,Large Language Models (LLMs) を用いたSolidityコードに変換するLMSTという新しいアプローチを提案する。
イーサリアム仮想マシンの能力と限界を考慮して、生産されたコードの単なる正しさを超えたガスコストの最適化を実現するために、広範囲のプロンプトエンジニアリングが行われる。
また,基本となるMLモデルの精度クレームを検証するために生成したコードを用いた分散アプリケーションの概念実証も開発した。
大規模な実験は、LLMを使用した自動コード翻訳を通じて、MLモデルをブロックチェーン上にデプロイする可能性を示している。
関連論文リスト
- Large Language Diffusion Models [77.02553707673418]
自己回帰モデル(ARM)は、大規模言語モデル(LLM)の基盤として広く見なされている。
我々は,事前学習および教師付き微調整パラダイムの下で,ゼロから学習した拡散モデルであるLLaDAを紹介する。
広範なベンチマークを通じて、LLaDAは強力なスケーラビリティを示し、自己構築されたARMベースラインを上回っています。
論文 参考訳(メタデータ) (2025-02-14T08:23:51Z) - SynerGen-VL: Towards Synergistic Image Understanding and Generation with Vision Experts and Token Folding [66.74446220401296]
画像の理解と生成の両方が可能なシンプルだが強力なエンコーダのないMLLMであるSynerGen-VLを提案する。
トークンの折り畳み機構と,高分解能画像理解を効果的に支援するビジョンエキスパートベースのプログレッシブアライメント事前学習戦略を導入する。
コードとモデルはリリースされます。
論文 参考訳(メタデータ) (2024-12-12T18:59:26Z) - zsLLMCode: An Effective Approach for Code Embedding via LLM with Zero-Shot Learning [6.976968804436321]
本稿では,大言語モデル(LLM)と文埋め込みモデルを用いて,新たなゼロショット手法であるzsLLMCodeを提案する。
その結果,最先端の教師なしアプローチに対する提案手法の有効性と優位性を実証した。
論文 参考訳(メタデータ) (2024-09-23T01:03:15Z) - Verbalized Machine Learning: Revisiting Machine Learning with Language Models [63.10391314749408]
言語化機械学習(VML)の枠組みを紹介する。
VMLはパラメータ空間を人間の解釈可能な自然言語に制限する。
我々は,VMLの有効性を実証的に検証し,VMLがより強力な解釈可能性を実現するためのステップストーンとして機能することを期待する。
論文 参考訳(メタデータ) (2024-06-06T17:59:56Z) - ML2SC: Deploying Machine Learning Models as Smart Contracts on the Blockchain [1.433758865948252]
我々は、Pytorchで記述された多層パーセプトロン(MLP)モデルをSolidityスマートコントラクトバージョンに変換することができる、PyTorch to SolidityトランスレータであるMachine Learning to Contract (ML2SC)を紹介する。
生成されたスマートコントラクトをデプロイした後、PyTorchを使用してモデルをオフチェーンでトレーニングし、取得したウェイトとバイアスを関数コールを使用してスマートコントラクトに転送します。
論文 参考訳(メタデータ) (2024-03-28T23:55:10Z) - opML: Optimistic Machine Learning on Blockchain [0.0]
opML(Optimistic Machine Learning on chain)は、ブロックチェーンシステムにAIモデル推論を強制する革新的なアプローチである。
opMLには、楽観的なロールアップシステムを思い出させる、インタラクティブな不正証明プロトコルがある。
opMLは、最小限の参加要件で、コスト効率が高く、高効率なMLサービスを提供する。
論文 参考訳(メタデータ) (2024-01-31T02:43:38Z) - Knowledge Fusion of Large Language Models [73.28202188100646]
本稿では,大規模言語モデル(LLM)における知識融合の概念を紹介する。
我々は、それらの集合的知識と独特な強みを外部化し、それによってターゲットモデルの能力が、どのソースLLMよりも高められるようにします。
この結果から,LLMの融合により,推論やコモンセンス,コード生成など,対象モデルの性能が向上することが確認された。
論文 参考訳(メタデータ) (2024-01-19T05:02:46Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - Enabling Un-/Semi-Supervised Machine Learning for MDSE of the Real-World
CPS/IoT Applications [0.5156484100374059]
我々は、スマートサイバー物理システム(CPS)とIoT(Internet of Things)の現実的なユースケースシナリオに対して、ドメイン固有モデル駆動ソフトウェアエンジニアリング(MDSE)をサポートする新しいアプローチを提案する。
人工知能(AI)の本質において利用可能なデータの大部分はラベルが付けられていないと我々は主張する。したがって、教師なしおよび/または半教師なしのMLアプローチが実践的な選択である。
提案手法は,既存の最先端MDSEツールと完全に実装され,CPS/IoTドメインを提供する。
論文 参考訳(メタデータ) (2021-07-06T15:51:39Z) - MLGO: a Machine Learning Guided Compiler Optimizations Framework [0.0]
この作業は、実際の設定で複雑なコンパイラパスで機械学習を初めて完全に統合した作業です。
インライン・フォー・サイズモデルのトレーニングには2つの異なるMLアルゴリズムを使用し、最大7%の削減を実現している。
同じモデルは、実世界のターゲットの多様性、そして数ヶ月のアクティブな開発の後、同じターゲットセットにうまく一般化します。
論文 参考訳(メタデータ) (2021-01-13T00:02:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。