論文の概要: An end-to-end agentic pipeline for smart contract translation and quality evaluation
- arxiv url: http://arxiv.org/abs/2602.13808v1
- Date: Sat, 14 Feb 2026 14:37:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.434381
- Title: An end-to-end agentic pipeline for smart contract translation and quality evaluation
- Title(参考訳): スマートコントラクト翻訳と品質評価のためのエンドツーエンドエージェントパイプライン
- Authors: Abhinav Goel, Chaitya Shah, Agostino Capponi, Alfio Gliozzo,
- Abstract要約: 本稿では,自然言語仕様から生成されたスマートコントラクトを体系的に評価するためのエンドツーエンドフレームワークを提案する。
システムはコントラクトテキストを構造化スキーマに解析し、Solidityコードを生成し、コンパイルとセキュリティチェックを通じて自動品質評価を実行する。
- 参考スコア(独自算出の注目度): 5.027278762864141
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present an end-to-end framework for systematic evaluation of LLM-generated smart contracts from natural-language specifications. The system parses contractual text into structured schemas, generates Solidity code, and performs automated quality assessment through compilation and security checks. Using CrewAI-style agent teams with iterative refinement, the pipeline produces structured artifacts with full provenance metadata. Quality is measured across five dimensions, including functional completeness, variable fidelity, state-machine correctness, business-logic fidelity, and code quality aggregated into composite scores. The framework supports paired evaluation against ground-truth implementations, quantifying alignment and identifying systematic error modes such as logic omissions and state transition inconsistencies. This provides a reproducible benchmark for empirical research on smart contract synthesis quality and supports extensions to formal verification and compliance checking.
- Abstract(参考訳): 本稿では,LLM生成スマートコントラクトを自然言語仕様から体系的に評価するためのエンドツーエンドフレームワークを提案する。
システムはコントラクトテキストを構造化スキーマに解析し、Solidityコードを生成し、コンパイルとセキュリティチェックを通じて自動品質評価を実行する。
CrewAIスタイルのエージェントチームと反復リファインメントを使用して、パイプラインは完全な実績メタデータを備えた構造化アーティファクトを生成する。
品質は、機能的完全性、可変忠実性、状態-機械的正確性、ビジネス-論理的忠実性、複合スコアに集約されたコード品質を含む5つの次元で測定される。
このフレームワークは、基幹構造の実装に対するペア評価をサポートし、アライメントを定量化し、ロジックの省略や状態遷移の不整合のような系統的なエラーモードを識別する。
これは、スマートコントラクト合成の品質に関する実証研究のための再現可能なベンチマークを提供し、正式な検証とコンプライアンスチェックの拡張をサポートする。
関連論文リスト
- DeepSynth-Eval: Objectively Evaluating Information Consolidation in Deep Survey Writing [53.85037373860246]
本稿では,情報統合能力を客観的に評価するためのベンチマークであるDeep Synth-Evalを紹介する。
一般チェックリスト(実例)と制約チェックリスト(構造体)を用いたきめ細かい評価プロトコルを提案する。
その結果,エージェント型プラン・アンド・ライトは単ターン生成よりも大幅に優れていた。
論文 参考訳(メタデータ) (2026-01-07T03:07:52Z) - AgenticIQA: An Agentic Framework for Adaptive and Interpretable Image Quality Assessment [69.06977852423564]
画像品質評価(IQA)は、人間の視覚系に根ざした知覚品質の定量化と解釈の両方を反映している。
AgenticIQAは、IQAを歪み検出、歪み解析、ツール選択、ツール実行の4つのサブタスクに分解する。
本稿では,IQAエージェントに適した大規模命令データセットであるAgenticIQA-200Kと,VLMベースのIQAエージェントの計画,実行,要約機能を評価するための最初のベンチマークであるAgenticIQA-Evalを紹介する。
論文 参考訳(メタデータ) (2025-09-30T09:37:01Z) - Transparent, Evaluable, and Accessible Data Agents: A Proof-of-Concept Framework [0.0]
本稿では、AIエージェントの開発と評価のためのモジュール型コンポーネントベースのアーキテクチャについて述べる。
このシステムは、技術的でないユーザが複雑なデータウェアハウスと対話できるようにすることによって、データアクセシビリティにおける中核的な課題に対処する。
設計の要点は、多層推論フレームワークを通じて達成される透明な意思決定へのコミットメントである。
論文 参考訳(メタデータ) (2025-09-28T23:54:41Z) - CRACQ: A Multi-Dimensional Approach To Automated Document Assessment [0.0]
CRACQは、コヒーレンス、リゴール、適切性、完全性、品質といった、f i v e特有の特性で文書を評価するのに適した多次元評価フレームワークである。
言語的、意味的、構造的なシグナルを累積評価に統合し、全体的および特性レベルの分析を可能にする。
論文 参考訳(メタデータ) (2025-09-26T17:01:54Z) - AssertCoder: LLM-Based Assertion Generation via Multimodal Specification Extraction [32.14733357890831]
本稿では,高品質なSVAを自動的に生成する新しい統合フレームワークAssertCoderを提案する。
AssertCoderは、不均一な仕様フォーマットを解析するために、モダリティに敏感な事前処理を使用する。
このフレームワークは、アサーションの品質を評価するために、突然変異に基づく評価アプローチを取り入れている。
論文 参考訳(メタデータ) (2025-07-14T14:43:14Z) - AI4Contracts: LLM & RAG-Powered Encoding of Financial Derivative Contracts [1.3060230641655135]
大規模言語モデル(LLM)と検索拡張生成(RAG)は、AIシステムが構造化されていないテキストから情報を抽出し整理する方法を再構築している。
本稿では,テンプレート駆動型LLMフレームワークであるCDMizerと,構造化テキスト変換のためのRAGベースのフレームワークを紹介する。
論文 参考訳(メタデータ) (2025-06-01T16:05:00Z) - Training Language Models to Generate Quality Code with Program Analysis Feedback [66.0854002147103]
大規模言語モデル(LLM)によるコード生成は、ますます本番環境で採用されているが、コード品質の保証には失敗している。
実運用品質のコードを生成するためにLLMにインセンティブを与える強化学習フレームワークであるREALを提案する。
論文 参考訳(メタデータ) (2025-05-28T17:57:47Z) - Q-NL Verifier: Leveraging Synthetic Data for Robust Knowledge Graph Question Answering [0.4499833362998489]
高品質な合成クエリとNL翻訳を生成する方法であるQ-NL Verifierを提案する。
我々のアプローチは、構造化クエリの意味論的に正確な自然言語パラフレーズを生成するために、大きな言語モデルに依存している。
LC-QuAD 2.0ベンチマークを用いて行った実験から、Q-NL Verifierは、他のモデルからのパラフレーズや、人間による翻訳によく対応していることがわかった。
論文 参考訳(メタデータ) (2025-03-03T10:28:24Z) - Localizing Factual Inconsistencies in Attributable Text Generation [74.11403803488643]
本稿では,帰属可能なテキスト生成における事実の不整合をローカライズするための新しい形式であるQASemConsistencyを紹介する。
QASemConsistencyは、人間の判断とよく相関する事実整合性スコアを得られることを示す。
論文 参考訳(メタデータ) (2024-10-09T22:53:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。