論文の概要: Generic Adversarial Smart Contract Detection with Semantics and Uncertainty-Aware LLM
- arxiv url: http://arxiv.org/abs/2509.18934v1
- Date: Tue, 23 Sep 2025 12:52:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.839956
- Title: Generic Adversarial Smart Contract Detection with Semantics and Uncertainty-Aware LLM
- Title(参考訳): セマンティックスと不確実性を考慮したLLMによる汎用的対向型スマートコントラクト検出
- Authors: Yating Liu, Xing Su, Hao Wu, Sijin Li, Yuxi Cheng, Fengyuan Xu, Sheng Zhong,
- Abstract要約: FinDetは、汎用的な敵対的スマートコントラクト検出フレームワークである。
EVM-バイトコードの契約のみを入力として取り、高いバランスの取れた精度で敵の契約を識別する。
包括的評価の結果,FinDet の BAC は 0.9223 であり,TPR は 0.8950 であり,既存のベースラインを著しく上回っていることがわかった。
- 参考スコア(独自算出の注目度): 18.01454017110476
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial smart contracts, mostly on EVM-compatible chains like Ethereum and BSC, are deployed as EVM bytecode to exploit vulnerable smart contracts typically for financial gains. Detecting such malicious contracts at the time of deployment is an important proactive strategy preventing loss from victim contracts. It offers a better cost-benefit than detecting vulnerabilities on diverse potential victims. However, existing works are not generic with limited detection types and effectiveness due to imbalanced samples, while the emerging LLM technologies, which show its potentials in generalization, have two key problems impeding its application in this task: hard digestion of compiled-code inputs, especially those with task-specific logic, and hard assessment of LLMs' certainty in their binary answers, i.e., yes-or-no answers. Therefore, we propose a generic adversarial smart contracts detection framework FinDet, which leverages LLMs with two enhancements addressing above two problems. FinDet takes as input only the EVM-bytecode contracts and identifies adversarial ones among them with high balanced accuracy. The first enhancement extracts concise semantic intentions and high-level behavioral logic from the low-level bytecode inputs, unleashing the LLM reasoning capability restricted by the task input. The second enhancement probes and measures the LLM uncertainty to its multi-round answering to the same query, improving the LLM answering robustness for binary classifications required by the task output. Our comprehensive evaluation shows that FinDet achieves a BAC of 0.9223 and a TPR of 0.8950, significantly outperforming existing baselines. It remains robust under challenging conditions including unseen attack patterns, low-data settings, and feature obfuscation. FinDet detects all 5 public and 20+ unreported adversarial contracts in a 10-day real-world test, confirmed manually.
- Abstract(参考訳): 主にEthereumやBSCのようなEVM互換のチェーンをベースとした、敵対的なスマートコントラクトは、EVMバイトコードとしてデプロイされ、金融上の利益のために、脆弱なスマートコントラクトを悪用する。
このような悪意のある契約をデプロイ時に検出することは、被害者の契約を失うのを防ぐ重要な積極的な戦略である。
多様な潜在的な犠牲者の脆弱性を検出するよりも、費用対効果が優れている。
しかし、既存の研究は、不均衡なサンプルによる検出タイプや有効性に制限があるわけではないが、その一般化の可能性を示す新興のLCM技術は、コンパイルされたコード入力のハードダイジェスト、特にタスク固有の論理、およびLLMのバイナリ回答における確証のハードアセスメントの2つの主要な問題を持っている。
そこで本稿では,LLMを利用した汎用的対向型スマートコントラクト検出フレームワークFinDetを提案する。
FinDetは、EVM-バイトコードのコントラクトのみを入力として、高いバランスの取れた精度で、その中の敵を識別する。
第1エンハンスメントは、低レベルのバイトコード入力から簡潔な意味的意図と高レベルの振る舞い論理を抽出し、タスク入力によって制限されたLLM推論能力を開放する。
第2の強化は、同一クエリに対するマルチラウンド応答に対するLLMの不確実性を調査し測定し、タスク出力に必要なバイナリ分類に対するLLM応答堅牢性を向上させる。
包括的評価の結果,FinDet の BAC は 0.9223 であり,TPR は 0.8950 であり,既存のベースラインを著しく上回っていることがわかった。
目に見えない攻撃パターン、低データ設定、機能の難読化など、困難な状況下では堅牢である。
FinDetは、10日間の実世界テストで5件の公開契約と20件以上の未報告の敵契約を、手動で確認する。
関連論文リスト
- LLMs as verification oracles for Solidity [1.3887048755037537]
本稿では,この役割において,最先端の推論LLMである GPT-5 を初めて体系的に評価する。
我々は,大規模な検証タスクのデータセット上でその性能をベンチマークし,その出力を確立された形式的検証ツールと比較し,実世界の監査シナリオにおける実効性を評価する。
我々の研究は、AIの収束における新たなフロンティアと、セキュアなスマートコントラクト開発と監査のための形式的手法を示唆している。
論文 参考訳(メタデータ) (2025-09-23T15:32:13Z) - LLAMA: Multi-Feedback Smart Contract Fuzzing Framework with LLM-Guided Seed Generation [56.84049855266145]
進化的突然変異戦略とハイブリッドテスト技術を統合したマルチフィードバックスマートコントラクトファジリングフレームワーク(LLAMA)を提案する。
LLAMAは、91%の命令カバレッジと90%のブランチカバレッジを達成すると同時に、148の既知の脆弱性のうち132が検出される。
これらの結果は、現実のスマートコントラクトセキュリティテストシナリオにおけるLAMAの有効性、適応性、実用性を強調している。
論文 参考訳(メタデータ) (2025-07-16T09:46:58Z) - Decompiling Smart Contracts with a Large Language Model [51.49197239479266]
Etherscanの78,047,845のスマートコントラクトがデプロイされているにも関わらず(2025年5月26日現在)、わずか767,520 (1%)がオープンソースである。
この不透明さは、オンチェーンスマートコントラクトバイトコードの自動意味解析を必要とする。
バイトコードを可読でセマンティックに忠実なSolidityコードに変換する,先駆的な逆コンパイルパイプラインを導入する。
論文 参考訳(メタデータ) (2025-06-24T13:42:59Z) - Smart-LLaMA-DPO: Reinforced Large Language Model for Explainable Smart Contract Vulnerability Detection [15.694744168599055]
既存の脆弱性検出方法は2つの大きな問題に直面している。
嗜好学習には包括的カバレッジと高品質な説明が欠如している。
大規模言語モデル(LLM)は、スマートコントラクトのセキュリティにおいて、特定の概念を正確に解釈するのに苦労することが多い。
論文 参考訳(メタデータ) (2025-06-23T02:24:07Z) - Are You Getting What You Pay For? Auditing Model Substitution in LLM APIs [60.881609323604685]
ブラックボックスAPIを通じてアクセスされるLarge Language Models (LLM)は、信頼の課題をもたらす。
ユーザーは、宣伝されたモデル機能に基づいたサービスの料金を支払う。
プロバイダは、運用コストを削減するために、特定のモデルを安価で低品質の代替品に隠蔽的に置き換えることができる。
この透明性の欠如は、公正性を損なうとともに、信頼を損なうとともに、信頼性の高いベンチマークを複雑にする。
論文 参考訳(メタデータ) (2025-04-07T03:57:41Z) - Smart-LLaMA: Two-Stage Post-Training of Large Language Models for Smart Contract Vulnerability Detection and Explanation [21.39496709865097]
既存のスマートコントラクトの脆弱性検出方法は3つの大きな問題に直面している。
データセットの十分な品質、詳細な説明と正確な脆弱性位置の欠如。
LLaMA言語モデルに基づく高度な検出手法であるSmart-LLaMAを提案する。
論文 参考訳(メタデータ) (2024-11-09T15:49:42Z) - Improving LLM Reasoning through Scaling Inference Computation with Collaborative Verification [52.095460362197336]
大規模言語モデル(LLM)は一貫性と正確な推論に苦しむ。
LLMは、主に正しいソリューションに基づいて訓練され、エラーを検出して学習する能力を減らす。
本稿では,CoT(Chain-of-Thought)とPoT(Program-of-Thought)を組み合わせた新しい協調手法を提案する。
論文 参考訳(メタデータ) (2024-10-05T05:21:48Z) - Token-Level Adversarial Prompt Detection Based on Perplexity Measures
and Contextual Information [67.78183175605761]
大規模言語モデルは、敵の迅速な攻撃に影響を受けやすい。
この脆弱性は、LLMの堅牢性と信頼性に関する重要な懸念を浮き彫りにしている。
トークンレベルで敵のプロンプトを検出するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-20T03:17:21Z) - Large Language Model-Powered Smart Contract Vulnerability Detection: New
Perspectives [8.524720028421447]
本稿では, GPT-4 のような大規模言語モデル (LLM) を利用する機会, 課題, 潜在的な解決策を体系的に分析する。
高いランダム性でより多くの答えを生成することは、正しい答えを生み出す可能性を大幅に押し上げるが、必然的に偽陽性の数が増加する。
本稿では,GPTLens と呼ばれる,従来の一段階検出を2つの相乗的段階に分割し,生成と識別を行う逆方向のフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-02T12:37:23Z) - ESCORT: Ethereum Smart COntRacTs Vulnerability Detection using Deep
Neural Network and Transfer Learning [80.85273827468063]
既存の機械学習ベースの脆弱性検出方法は制限され、スマートコントラクトが脆弱かどうかのみ検査される。
スマートコントラクトのための初のDeep Neural Network(DNN)ベースの脆弱性検出フレームワークであるESCORTを提案する。
ESCORTは6種類の脆弱性に対して平均95%のF1スコアを達成し,検出時間は契約あたり0.02秒であることを示す。
論文 参考訳(メタデータ) (2021-03-23T15:04:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。