論文の概要: TypePilot: Leveraging the Scala Type System for Secure LLM-generated Code
- arxiv url: http://arxiv.org/abs/2510.11151v1
- Date: Mon, 13 Oct 2025 08:44:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.27289
- Title: TypePilot: Leveraging the Scala Type System for Secure LLM-generated Code
- Title(参考訳): TypePilot: LLM生成コードをセキュアにするためにScala Type Systemを活用する
- Authors: Alexander Sternfeld, Andrei Kucharavy, Ljiljana Dolamic,
- Abstract要約: 大規模言語モデル(LLM)は、様々なプログラミング言語のコード生成タスクにおいて顕著な習熟度を示している。
それらのアウトプットには微妙だが重要な脆弱性があり、セキュリティに敏感なシステムやミッションクリティカルなシステムにデプロイすると重大なリスクが生じる。
本稿では,LLM生成コードのセキュリティとロバスト性を高めるために設計されたエージェントAIフレームワークであるTypePilotを紹介する。
- 参考スコア(独自算出の注目度): 46.747768845221735
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language Models (LLMs) have shown remarkable proficiency in code generation tasks across various programming languages. However, their outputs often contain subtle but critical vulnerabilities, posing significant risks when deployed in security-sensitive or mission-critical systems. This paper introduces TypePilot, an agentic AI framework designed to enhance the security and robustness of LLM-generated code by leveraging strongly typed and verifiable languages, using Scala as a representative example. We evaluate the effectiveness of our approach in two settings: formal verification with the Stainless framework and general-purpose secure code generation. Our experiments with leading open-source LLMs reveal that while direct code generation often fails to enforce safety constraints, just as naive prompting for more secure code, our type-focused agentic pipeline substantially mitigates input validation and injection vulnerabilities. The results demonstrate the potential of structured, type-guided LLM workflows to improve the SotA of the trustworthiness of automated code generation in high-assurance domains.
- Abstract(参考訳): 大規模言語モデル(LLM)は、様々なプログラミング言語のコード生成タスクにおいて顕著な習熟度を示している。
しかし、そのアウトプットには微妙だが重大な脆弱性が含まれており、セキュリティに敏感なシステムやミッションクリティカルなシステムにデプロイした場合に重大なリスクが生じる。
本稿では,強力な型付けと検証可能な言語を活用することで,LLM生成コードのセキュリティと堅牢性を向上するエージェントAIフレームワークであるTypePilotを紹介する。
提案手法の有効性を,ステンレスフレームワークによる形式検証と汎用セキュアコード生成の2つの設定で評価する。
オープンソースLLMをリードする私たちの実験によると、直接コード生成は安全上の制約を強制するのに失敗することが多いが、よりセキュアなコードを実現するのと同じように、タイプ中心のエージェントパイプラインは、入力検証とインジェクションの脆弱性を著しく軽減します。
その結果,高保証領域における自動コード生成の信頼性を向上させるため,構造化型誘導型LLMワークフローの可能性を実証した。
関連論文リスト
- Guiding AI to Fix Its Own Flaws: An Empirical Study on LLM-Driven Secure Code Generation [16.29310628754089]
大規模言語モデル(LLM)は、コードの自動生成のための強力なツールになっている。
LLMは、しばしば重要なセキュリティプラクティスを見落とし、安全でないコードを生成する。
本稿では、安全性の低いコードを生成するための固有の傾向、自己生成する脆弱性ヒントによってガイドされた場合にセキュアなコードを生成する能力、フィードバックレベルが異なる場合に脆弱性を修復する効果について検討する。
論文 参考訳(メタデータ) (2025-06-28T23:24:33Z) - Automating Prompt Leakage Attacks on Large Language Models Using Agentic Approach [9.483655213280738]
本稿では,大規模言語モデル(LLM)の安全性を評価するための新しいアプローチを提案する。
我々は、プロンプトリークをLLMデプロイメントの安全性にとって重要な脅威と定義する。
我々は,協調エージェントが目的のLLMを探索・活用し,そのプロンプトを抽出するマルチエージェントシステムを実装した。
論文 参考訳(メタデータ) (2025-02-18T08:17:32Z) - CodeAttack: Revealing Safety Generalization Challenges of Large Language Models via Code Completion [117.178835165855]
本稿では,自然言語入力をコード入力に変換するフレームワークであるCodeAttackを紹介する。
我々の研究は、コード入力に対するこれらのモデルの新たな、普遍的な安全性の脆弱性を明らかにした。
CodeAttackと自然言語の分布ギャップが大きくなると、安全性の一般化が弱くなる。
論文 参考訳(メタデータ) (2024-03-12T17:55:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。