論文の概要: Large Language Model-Powered Smart Contract Vulnerability Detection: New
Perspectives
- arxiv url: http://arxiv.org/abs/2310.01152v2
- Date: Mon, 16 Oct 2023 19:34:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 20:18:30.121542
- Title: Large Language Model-Powered Smart Contract Vulnerability Detection: New
Perspectives
- Title(参考訳): 大規模言語モデルによるスマートコントラクト脆弱性検出 - 新しい展望
- Authors: Sihao Hu, Tiansheng Huang, Fatih \.Ilhan, Selim Furkan Tekin, Ling Liu
- Abstract要約: 本稿では, GPT-4 のような大規模言語モデル (LLM) を利用する機会, 課題, 潜在的な解決策を体系的に分析する。
高いランダム性でより多くの答えを生成することは、正しい答えを生み出す可能性を大幅に押し上げるが、必然的に偽陽性の数が増加する。
本稿では,GPTLens と呼ばれる,従来の一段階検出を2つの相乗的段階に分割し,生成と識別を行う逆方向のフレームワークを提案する。
- 参考スコア(独自算出の注目度): 8.524720028421447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper provides a systematic analysis of the opportunities, challenges,
and potential solutions of harnessing Large Language Models (LLMs) such as
GPT-4 to dig out vulnerabilities within smart contracts based on our ongoing
research. For the task of smart contract vulnerability detection, achieving
practical usability hinges on identifying as many true vulnerabilities as
possible while minimizing the number of false positives. Nonetheless, our
empirical study reveals contradictory yet interesting findings: generating more
answers with higher randomness largely boosts the likelihood of producing a
correct answer but inevitably leads to a higher number of false positives. To
mitigate this tension, we propose an adversarial framework dubbed GPTLens that
breaks the conventional one-stage detection into two synergistic stages $-$
generation and discrimination, for progressive detection and refinement,
wherein the LLM plays dual roles, i.e., auditor and critic, respectively. The
goal of auditor is to yield a broad spectrum of vulnerabilities with the hope
of encompassing the correct answer, whereas the goal of critic that evaluates
the validity of identified vulnerabilities is to minimize the number of false
positives. Experimental results and illustrative examples demonstrate that
auditor and critic work together harmoniously to yield pronounced improvements
over the conventional one-stage detection. GPTLens is intuitive, strategic, and
entirely LLM-driven without relying on specialist expertise in smart contracts,
showcasing its methodical generality and potential to detect a broad spectrum
of vulnerabilities. Our code is available at:
https://github.com/git-disl/GPTLens.
- Abstract(参考訳): 本稿では,GPT-4 などの大規模言語モデル (LLM) を利用したスマートコントラクトにおける脆弱性の探索を行う機会,課題,潜在的な解決策を系統的に分析する。
スマートコントラクト脆弱性検出のタスクでは、偽陽性の数を最小化しながら、可能な限り多くの真の脆弱性を特定するために、実用的なユーザビリティのヒンジを達成します。
高いランダム性でより多くの回答を生成することは、正しい回答を生み出す可能性を大幅に押し上げるが、必然的に偽陽性の数が増加する。
この緊張を軽減するために,従来の1段階検出を2つの相乗的段階に分解し,進行的検出と精細化のために,従来の1段階検出を2つの相乗的段階に分解するgptlensと呼ばれる敵対的枠組みを提案する。
auditorの目標は、正解を包含することを期待して、広範囲の脆弱性を発生させることである。一方、特定された脆弱性の有効性を評価する批判の目的は、偽陽性の数を最小限にすることである。
実験結果と実例から, オーディエンスと批評家が調和して作業し, 従来の一段階検出よりも顕著な改善が得られた。
gptlensは直感的で、戦略的で、スマートコントラクトの専門知識に頼ることなく、完全にllm駆動であり、その方法論上の汎用性と幅広い脆弱性を検出する可能性を示している。
私たちのコードは、https://github.com/git-disl/GPTLens.comで利用可能です。
関連論文リスト
- Software Vulnerability and Functionality Assessment using LLMs [0.8057006406834466]
我々は,Large Language Models (LLMs) がコードレビューに役立つかどうかを検討する。
我々の調査は、良質なレビューに欠かせない2つの課題に焦点を当てている。
論文 参考訳(メタデータ) (2024-03-13T11:29:13Z) - LLbezpeky: Leveraging Large Language Models for Vulnerability Detection [10.330063887545398]
大規模言語モデル(LLM)は、人やプログラミング言語におけるセムナティクスを理解する大きな可能性を示している。
私たちは、脆弱性の特定と修正を支援するAI駆動ワークフローの構築に重点を置いています。
論文 参考訳(メタデータ) (2024-01-02T16:14:30Z) - How Far Have We Gone in Vulnerability Detection Using Large Language
Models [15.09461331135668]
包括的な脆弱性ベンチマークであるVulBenchを紹介します。
このベンチマークは、幅広いCTF課題と実世界のアプリケーションから高品質なデータを集約する。
いくつかのLSMは、脆弱性検出における従来のディープラーニングアプローチよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-21T08:20:39Z) - Token-Level Adversarial Prompt Detection Based on Perplexity Measures
and Contextual Information [67.78183175605761]
大規模言語モデルは、敵の迅速な攻撃に影響を受けやすい。
この脆弱性は、LLMの堅牢性と信頼性に関する重要な懸念を浮き彫りにしている。
トークンレベルで敵のプロンプトを検出するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-20T03:17:21Z) - How Trustworthy are Open-Source LLMs? An Assessment under Malicious
Demonstrations Shows their Vulnerabilities [40.579927521783]
我々は、信頼性に関するオープンソースのLarge Language Modelsの評価を行い、8つの異なる側面でそれらを精査する。
我々は,信頼度攻撃のための巧妙に作り上げた悪意あるデモンストレーションを組み込むことにより,CoU(Chain of Utterances-based)の促進戦略を提案する。
論文 参考訳(メタデータ) (2023-11-15T23:33:07Z) - Visual Adversarial Examples Jailbreak Aligned Large Language Models [66.53468356460365]
視覚入力の連続的かつ高次元的な性質は、敵対的攻撃に対する弱いリンクであることを示す。
我々は、視力統合されたLLMの安全ガードレールを回避するために、視覚的敵の例を利用する。
本研究は,マルチモダリティの追求に伴う敵のエスカレーションリスクを浮き彫りにする。
論文 参考訳(メタデータ) (2023-06-22T22:13:03Z) - On Evaluating Adversarial Robustness of Large Vision-Language Models [64.66104342002882]
大規模視覚言語モデル(VLM)のロバスト性を,最も現実的で高リスクな環境で評価する。
特に,CLIP や BLIP などの事前学習モデルに対して,まず攻撃対象のサンプルを作成する。
これらのVLM上のブラックボックスクエリは、ターゲットの回避の効果をさらに向上させることができる。
論文 参考訳(メタデータ) (2023-05-26T13:49:44Z) - Consistency Analysis of ChatGPT [65.268245109828]
本稿では,ChatGPTとGPT-4の論理的一貫した行動に対する信頼性について検討する。
その結果,両モデルとも言語理解能力と推論能力が向上しているように見えるが,論理的に一貫した予測が得られないことが示唆された。
論文 参考訳(メタデータ) (2023-03-11T01:19:01Z) - Adversarial GLUE: A Multi-Task Benchmark for Robustness Evaluation of
Language Models [86.02610674750345]
AdvGLUE(Adversarial GLUE)は、様々な種類の敵攻撃の下で、現代の大規模言語モデルの脆弱性を調査し評価するための新しいマルチタスクベンチマークである。
GLUEタスクに14の逆攻撃手法を適用してAdvGLUEを構築する。
テストしたすべての言語モデルとロバストなトレーニングメソッドは、AdvGLUEではパフォーマンスが悪く、スコアは明確な精度よりもはるかに遅れています。
論文 参考訳(メタデータ) (2021-11-04T12:59:55Z) - Exploring Robustness of Unsupervised Domain Adaptation in Semantic
Segmentation [74.05906222376608]
クリーンな画像とそれらの逆の例との一致を、出力空間における対照的な損失によって最大化する、逆向きの自己スーパービジョンUDA(ASSUDA)を提案する。
i) セマンティックセグメンテーションにおけるUDA手法のロバスト性は未解明のままであり, (ii) 一般的に自己スーパービジョン(回転やジグソーなど) は分類や認識などのイメージタスクに有効であるが, セグメンテーションタスクの識別的表現を学習する重要な監視信号の提供には失敗している。
論文 参考訳(メタデータ) (2021-05-23T01:50:44Z) - LiBRe: A Practical Bayesian Approach to Adversarial Detection [36.541671795530625]
LiBReは、様々な訓練済みのタスク依存DNNに、異種敵対攻撃を低コストで防御する能力を与えることができる。
我々は,多層深層アンサンブル変奏法を構築し,LiBReの有効性と効率を高めるために,事前学習と微調整のワークフローを採用する。
論文 参考訳(メタデータ) (2021-03-27T07:48:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。