論文の概要: CoTDeceptor:Adversarial Code Obfuscation Against CoT-Enhanced LLM Code Agents
- arxiv url: http://arxiv.org/abs/2512.21250v1
- Date: Wed, 24 Dec 2025 15:55:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-25 19:43:21.821948
- Title: CoTDeceptor:Adversarial Code Obfuscation Against CoT-Enhanced LLM Code Agents
- Title(参考訳): CoTデセプタ:CoT強化LDMコードエージェントに対する逆コード難読化
- Authors: Haoyang Li, Mingjin Li, Jinxin Zuo, Siqi Li, Xiao Li, Hao Wu, Yueming Lu, Xiaochuan He,
- Abstract要約: CoTDeceptorは、CoT強化LDM検出器をターゲットにした最初の逆コード難読化フレームワークである。
我々の発見は、現実世界のソフトウェアサプライチェーンの潜在的なリスクを浮き彫りにしている。
- 参考スコア(独自算出の注目度): 12.097503515854141
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LLM-based code agents(e.g., ChatGPT Codex) are increasingly deployed as detector for code review and security auditing tasks. Although CoT-enhanced LLM vulnerability detectors are believed to provide improved robustness against obfuscated malicious code, we find that their reasoning chains and semantic abstraction processes exhibit exploitable systematic weaknesses.This allows attackers to covertly embed malicious logic, bypass code review, and propagate backdoored components throughout real-world software supply chains.To investigate this issue, we present CoTDeceptor, the first adversarial code obfuscation framework targeting CoT-enhanced LLM detectors. CoTDeceptor autonomously constructs evolving, hard-to-reverse multi-stage obfuscation strategy chains that effectively disrupt CoT-driven detection logic.We obtained malicious code provided by security enterprise, experimental results demonstrate that CoTDeceptor achieves stable and transferable evasion performance against state-of-the-art LLMs and vulnerability detection agents. CoTDeceptor bypasses 14 out of 15 vulnerability categories, compared to only 2 bypassed by prior methods. Our findings highlight potential risks in real-world software supply chains and underscore the need for more robust and interpretable LLM-powered security analysis systems.
- Abstract(参考訳): LLMベースのコードエージェント(例:ChatGPT Codex)は、コードレビューとセキュリティ監査タスクの検出器として、ますます多くデプロイされている。
CoTで強化されたLLM脆弱性検出装置は、難読化された悪意のあるコードに対して堅牢性の向上を提供すると考えられているが、それらの推論チェーンとセマンティック抽象化プロセスは、悪質な論理を隠蔽し、コードレビューをバイパスし、現実世界のソフトウェアサプライチェーン全体にバックドアコンポーネントを伝播させることができる。この問題を調査するために、CoTデセプタをターゲットとする最初の逆コード難読化フレームワークであるCoTDeceptorを提示する。
CoTDeceptorは,CoT駆動検出ロジックを効果的に破壊する多段階難読化戦略チェーンを自律的に構築し,セキュリティ企業が提供する悪意のあるコードを取得し,CoTDeceptorが最先端のLCMや脆弱性検出エージェントに対して安定かつ伝達可能な回避性能を達成できることを実験的に実証した。
CoTDeceptorは15の脆弱性カテゴリのうち14をバイパスする。
我々の発見は、現実世界のソフトウェアサプライチェーンの潜在的なリスクを浮き彫りにして、より堅牢で解釈可能なLLMによるセキュリティ分析システムの必要性を浮き彫りにしている。
関連論文リスト
- A Systematic Study of Code Obfuscation Against LLM-based Vulnerability Detection [21.93412188907902]
我々は,難読化手法の構造化された体系化を行い,それらを統一された枠組みで評価する。
我々は、一貫したLCM駆動アプローチを用いて、4つのプログラミング言語(Solidity、C、C++、Python)でこれらのテクニックを実装した。
LLMによる脆弱性検出には,コード難読化の正と負の両方の影響がみられた。
論文 参考訳(メタデータ) (2025-12-18T13:49:59Z) - The Trojan Knowledge: Bypassing Commercial LLM Guardrails via Harmless Prompt Weaving and Adaptive Tree Search [58.8834056209347]
大規模言語モデル(LLM)は、有害な出力を誘導するために安全ガードレールをバイパスするジェイルブレイク攻撃に弱いままである。
CKA-Agent(Correlated Knowledge Attack Agent)は、ターゲットモデルの知識基盤の適応的木構造探索としてジェイルブレイクを再構成する動的フレームワークである。
論文 参考訳(メタデータ) (2025-12-01T07:05:23Z) - BlindGuard: Safeguarding LLM-based Multi-Agent Systems under Unknown Attacks [58.959622170433725]
BlindGuardは、攻撃固有のラベルや悪意のある振る舞いに関する事前の知識を必要とせずに学習する、教師なしの防御方法である。
BlindGuardはマルチエージェントシステムにまたがる多様な攻撃タイプ(即時注入、メモリ中毒、ツール攻撃)を効果的に検出する。
論文 参考訳(メタデータ) (2025-08-11T16:04:47Z) - A Mixture of Linear Corrections Generates Secure Code [20.94236753015922]
大規模言語モデル(LLM)は、洗練されたコード生成タスクに熟練しているが、コードの脆弱性を確実に検出または回避するには効果がない。
現在のLLMは、脆弱なコードとセキュアなコードとを区別する正確な内部表現を符号化している。
本研究では,モデルのトークン生成確率を補正によって微調整する推論時ステアリング手法を開発した。
論文 参考訳(メタデータ) (2025-07-13T06:27:33Z) - Guiding AI to Fix Its Own Flaws: An Empirical Study on LLM-Driven Secure Code Generation [16.29310628754089]
大規模言語モデル(LLM)は、コードの自動生成のための強力なツールになっている。
LLMは、しばしば重要なセキュリティプラクティスを見落とし、安全でないコードを生成する。
本稿では、安全性の低いコードを生成するための固有の傾向、自己生成する脆弱性ヒントによってガイドされた場合にセキュアなコードを生成する能力、フィードバックレベルが異なる場合に脆弱性を修復する効果について検討する。
論文 参考訳(メタデータ) (2025-06-28T23:24:33Z) - Decompiling Smart Contracts with a Large Language Model [51.49197239479266]
Etherscanの78,047,845のスマートコントラクトがデプロイされているにも関わらず(2025年5月26日現在)、わずか767,520 (1%)がオープンソースである。
この不透明さは、オンチェーンスマートコントラクトバイトコードの自動意味解析を必要とする。
バイトコードを可読でセマンティックに忠実なSolidityコードに変換する,先駆的な逆コンパイルパイプラインを導入する。
論文 参考訳(メタデータ) (2025-06-24T13:42:59Z) - Training Language Models to Generate Quality Code with Program Analysis Feedback [66.0854002147103]
大規模言語モデル(LLM)によるコード生成は、ますます本番環境で採用されているが、コード品質の保証には失敗している。
実運用品質のコードを生成するためにLLMにインセンティブを与える強化学習フレームワークであるREALを提案する。
論文 参考訳(メタデータ) (2025-05-28T17:57:47Z) - CoTGuard: Using Chain-of-Thought Triggering for Copyright Protection in Multi-Agent LLM Systems [55.57181090183713]
我々は、Chain-of-Thought推論内でトリガーベースの検出を活用する著作権保護のための新しいフレームワークであるCoTGuardを紹介する。
具体的には、特定のCoTセグメントをアクティベートし、特定のトリガクエリをエージェントプロンプトに埋め込むことで、未許可コンテンツ再生の中間的推論ステップを監視する。
このアプローチは、協調エージェントシナリオにおける著作権侵害の微細かつ解釈可能な検出を可能にする。
論文 参考訳(メタデータ) (2025-05-26T01:42:37Z) - Monitoring Reasoning Models for Misbehavior and the Risks of Promoting Obfuscation [56.102976602468615]
エージェントコーディング環境における報酬ハッキングのために,OpenAI o3-miniのようなフロンティア推論モデルを監視することができることを示す。
最適化が多すぎると、エージェントは難解な報酬のハッキングを学び、その意図を思考の連鎖の中に隠してしまう。
論文 参考訳(メタデータ) (2025-03-14T23:50:34Z) - An LLM-Assisted Easy-to-Trigger Backdoor Attack on Code Completion Models: Injecting Disguised Vulnerabilities against Strong Detection [17.948513691133037]
我々は,コード補完モデルに基づくLLM支援バックドアアタックフレームワークであるCodeBreakerを紹介した。
悪意のあるペイロードを最小限の変換でソースコードに直接統合することで、CodeBreakerは現在のセキュリティ対策に挑戦する。
論文 参考訳(メタデータ) (2024-06-10T22:10:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。