論文の概要: "Tab, Tab, Bug'': Security Pitfalls of Next Edit Suggestions in AI-Integrated IDEs
- arxiv url: http://arxiv.org/abs/2602.06759v1
- Date: Fri, 06 Feb 2026 15:06:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.434832
- Title: "Tab, Tab, Bug'': Security Pitfalls of Next Edit Suggestions in AI-Integrated IDEs
- Title(参考訳): タブ、タブ、バグ':AI統合IDEにおける次の編集提案のセキュリティ落とし穴
- Authors: Yunlong Lyu, Yixuan Tang, Peng Chen, Tian Dong, Xinyu Wang, Zhiqiang Dong, Hao Chen,
- Abstract要約: Next Edit Suggestions (NES)は、現代のAI統合IDEの新機能である。
本稿では,NESシステムのシステムセキュリティ研究を初めて実施する。
その結果、NESはコンテキスト中毒にかかり、トランザクション編集やヒューマンIDEの相互作用に敏感であることが判明した。
- 参考スコア(独自算出の注目度): 14.960290948994627
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern AI-integrated IDEs are shifting from passive code completion to proactive Next Edit Suggestions (NES). Unlike traditional autocompletion, NES is designed to construct a richer context from both recent user interactions and the broader codebase to suggest multi-line, cross-line, or even cross-file modifications. This evolution significantly streamlines the programming workflow into a tab-by-tab interaction and enhances developer productivity. Consequently, NES introduces a more complex context retrieval mechanism and sophisticated interaction patterns. However, existing studies focus almost exclusively on the security implications of standalone LLM-based code generation, ignoring the potential attack vectors posed by NES in modern AI-integrated IDEs. The underlying mechanisms of NES remain under-explored, and their security implications are not yet fully understood. In this paper, we conduct the first systematic security study of NES systems. First, we perform an in-depth dissection of the NES mechanisms to understand the newly introduced threat vectors. It is found that NES retrieves a significantly expanded context, including inputs from imperceptible user actions and global codebase retrieval, which increases the attack surfaces. Second, we conduct a comprehensive in-lab study to evaluate the security implications of NES. The evaluation results reveal that NES is susceptible to context poisoning and is sensitive to transactional edits and human-IDE interactions. Third, we perform a large-scale online survey involving over 200 professional developers to assess the perceptions of NES security risks in real-world development workflows. The survey results indicate a general lack of awareness regarding the potential security pitfalls associated with NES, highlighting the need for increased education and improved security countermeasures in AI-integrated IDEs.
- Abstract(参考訳): 現代のAI統合IDEは、受動的コード補完からアクティブなNext Edit Suggestions(NES)に移行している。
従来のオートコンプリートとは異なり、NESは、最近のユーザインタラクションとより広範なコードベースの両方から、よりリッチなコンテキストを構築するように設計されている。
この進化は、プログラミングワークフローをタブバイタブのインタラクションに大幅に合理化し、開発者の生産性を高める。
その結果、NESはより複雑なコンテキスト検索機構と高度なインタラクションパターンを導入している。
しかし、既存の研究は、現代のAI統合IDEにおいてNESによって引き起こされる潜在的な攻撃ベクトルを無視して、スタンドアロンのLCMベースのコード生成のセキュリティへの影響にのみ焦点をあてている。
NESの根底にあるメカニズムは未解明のままであり、そのセキュリティへの影響はまだ完全には理解されていない。
本稿では,NESシステムのシステムセキュリティ研究を初めて実施する。
まず、新たに導入された脅威ベクトルを理解するために、NESのメカニズムを詳細に分析する。
その結果、NESは、知覚不能なユーザアクションからの入力や、グローバルコードベースの検索など、攻撃面を増大させるような、大幅に拡張されたコンテキストを検索できることが判明した。
第2に、NESのセキュリティへの影響を総合的に評価する。
評価結果から,NESは文脈中毒の影響を受けやすく,トランザクション編集や人間とIDEの相互作用に敏感であることが明らかとなった。
第3に,実世界の開発ワークフローにおけるNESのセキュリティリスクの認識を評価するために,200人以上のプロの開発者が関与する大規模なオンライン調査を実施しました。
調査の結果、NESに関連する潜在的なセキュリティの落とし穴に対する認識の欠如が示され、AI統合IDEの教育強化の必要性とセキュリティ対策の改善が強調された。
関連論文リスト
- Just Ask: Curious Code Agents Reveal System Prompts in Frontier LLMs [65.6660735371212]
textbftextscJustAskは,インタラクションのみで効果的な抽出戦略を自律的に発見するフレームワークである。
これは、アッパー信頼境界に基づく戦略選択と、原子プローブと高レベルのオーケストレーションにまたがる階層的なスキル空間を用いて、オンライン探索問題として抽出を定式化する。
この結果から,現代のエージェントシステムにおいて,システムプロンプトは致命的ではあるがほぼ無防備な攻撃面であることがわかった。
論文 参考訳(メタデータ) (2026-01-29T03:53:25Z) - Supporting Students in Navigating LLM-Generated Insecure Code [3.554701696273879]
BifrstはAI強化開発におけるセキュリティ意識を育む。
AIが強化された開発において、セキュリティ意識を育む教育フレームワークであるBifrstを紹介します。
論文 参考訳(メタデータ) (2025-11-25T21:49:36Z) - Rethinking Autonomy: Preventing Failures in AI-Driven Software Engineering [1.6766200616088744]
SAFE-AI Frameworkは、安全性、監査可能性、フィードバック、説明可能性を強調した総合的なアプローチである。
我々は、リスク評価と監視を導くために、提案的、生成的、自律的、破壊的なアクションを分類する、AI行動の新しい分類法を導入する。
この記事では、EU AI ActやカナダのAIDAといった新たな規則に沿って、ソフトウェアエンジニアリングにおける責任あるAI統合のためのロードマップを提供する。
論文 参考訳(メタデータ) (2025-08-15T22:13:54Z) - An Efficient and Adaptive Next Edit Suggestion Framework with Zero Human Instructions in IDEs [11.041668774652145]
我々は、命令不要で低レイテンシ体験を提供するコード編集フレームワークNES(Next Edition)を提案する。
デュアルモデルアーキテクチャに基づいて構築され、高品質なSFTとDAPOデータセットでトレーニングされたNESは、開発者の意図を理解することによって生産性を高める。
オープンソースのSFTおよびDAPOデータセットは、オープンソースのCodeLLMの性能を高めるために実証されている。
論文 参考訳(メタデータ) (2025-08-04T14:37:32Z) - AISafetyLab: A Comprehensive Framework for AI Safety Evaluation and Improvement [73.0700818105842]
我々は、AI安全のための代表的攻撃、防衛、評価方法論を統合する統合されたフレームワークとツールキットであるAISafetyLabを紹介する。
AISafetyLabには直感的なインターフェースがあり、開発者はシームレスにさまざまなテクニックを適用できる。
我々はヴィクナに関する実証的研究を行い、異なる攻撃戦略と防衛戦略を分析し、それらの比較効果に関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2025-02-24T02:11:52Z) - Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。