論文の概要: The Double Life of Code World Models: Provably Unmasking Malicious Behavior Through Execution Traces
- arxiv url: http://arxiv.org/abs/2512.13821v1
- Date: Mon, 15 Dec 2025 19:05:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.456953
- Title: The Double Life of Code World Models: Provably Unmasking Malicious Behavior Through Execution Traces
- Title(参考訳): コードワールドモデルの二重寿命:実行トレースを通しておそらく悪意ある振る舞いを模倣しない
- Authors: Subramanyam Sahoo, Jared Junkin,
- Abstract要約: 大規模言語モデル(LLM)は、人間の監督を最小限に抑えたコードを生成する傾向にある。
セマンティック分析により信頼できないコード生成モデルを検証する新しいAI制御フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) increasingly generate code with minimal human oversight, raising critical concerns about backdoor injection and malicious behavior. We present Cross-Trace Verification Protocol (CTVP), a novel AI control framework that verifies untrusted code-generating models through semantic orbit analysis. Rather than directly executing potentially malicious code, CTVP leverages the model's own predictions of execution traces across semantically equivalent program transformations. By analyzing consistency patterns in these predicted traces, we detect behavioral anomalies indicative of backdoors. Our approach introduces the Adversarial Robustness Quotient (ARQ), which quantifies the computational cost of verification relative to baseline generation, demonstrating exponential growth with orbit size. Theoretical analysis establishes information-theoretic bounds showing non-gamifiability -- adversaries cannot improve through training due to fundamental space complexity constraints. This work demonstrates that semantic orbit analysis provides a scalable, theoretically grounded approach to AI control for code generation tasks.
- Abstract(参考訳): 大規模言語モデル(LLM)は、人間の監視を最小限に抑えたコードを生成し、バックドアインジェクションや悪意のある振る舞いに関する重要な懸念を提起する。
我々は、セマンティックオービタル分析により信頼できないコード生成モデルを検証する新しいAI制御フレームワークであるクロストレース検証プロトコル(CTVP)を提案する。
潜在的に悪意のあるコードを直接実行する代わりに、CTVPはセマンティックに等価なプログラム変換をまたいだ実行トレースの予測を利用する。
予測されたトレースの一貫性パターンを解析することにより,バックドアを示す行動異常を検出する。
提案手法では, ベースライン生成に対する検証の計算コストを定量化し, 軌道サイズの指数的成長を示す。
理論的分析は、非可視性を示す情報理論境界を確立する。
この研究は、セマンティックオービタル分析が、コード生成タスクに対するAI制御に対するスケーラブルで理論的に基礎付けられたアプローチを提供することを示した。
関連論文リスト
- Taming Imperfect Process Verifiers: A Sampling Perspective on Backtracking [54.43083499412643]
言語モデルの生成能力をプロセス検証器と組み合わせたテストタイムアルゴリズムは、新しい推論能力を引き出すための有望なレバーを提供する。
提案手法は, 理論的に根拠付きバックトラックを用いて, 検証誤差に対して, 確実な堅牢性を実現するための新しいプロセス誘導型テスト時間サンプリングアルゴリズムであるVGBを導入する。
論文 参考訳(メタデータ) (2025-10-03T16:21:14Z) - TraceRAG: A LLM-Based Framework for Explainable Android Malware Detection and Behavior Analysis [8.977634735108895]
本稿では,TraceRAGを紹介した。TraceRAGは,マルウェアの検出と解析を行うための検索拡張世代(RAG)フレームワークである。
まず、TraceRAGは、ベクトルデータベースにインデックスされたメソッドレベルのコードスニペットの要約を生成する。
クエリ時に、行動に焦点を当てた質問は、より深い検査のために最も意味のあるスニペットを検索する。
最後に、マルチターン解析結果に基づいて、TraceRAGは、識別された悪意のある振る舞いとその対応するコード実装を示す人間可読レポートを生成する。
論文 参考訳(メタデータ) (2025-09-10T06:07:12Z) - MirGuard: Towards a Robust Provenance-based Intrusion Detection System Against Graph Manipulation Attacks [13.92935628832727]
MirGuardは、ロジック対応のマルチビュー拡張とコントラスト表現学習を組み合わせた異常検出フレームワークである。
MirGuardは、さまざまなグラフ操作攻撃に対して、最先端の検出器の堅牢性を大幅に上回っている。
論文 参考訳(メタデータ) (2025-08-14T13:35:51Z) - When LLMs Copy to Think: Uncovering Copy-Guided Attacks in Reasoning LLMs [30.532439965854767]
大規模言語モデル(LLM)は、脆弱性検出やコード理解といったタスクを可能にする自動コード解析に不可欠なものになっている。
本稿では,CGA(Copy-Guided Attacks)と呼ばれる,新たなプロンプトベースの攻撃のクラスを特定し,検討する。
CGAは、コード解析タスクにおいて、無限ループ、早期終了、偽の拒絶、意味的歪みを確実に誘導することを示す。
論文 参考訳(メタデータ) (2025-07-22T17:21:36Z) - Reformulation is All You Need: Addressing Malicious Text Features in DNNs [53.45564571192014]
本稿では,敵攻撃とバックドア攻撃の両方に対して有効な,統一的かつ適応的な防御フレームワークを提案する。
我々のフレームワークは、様々な悪意あるテキスト機能において、既存のサンプル指向の防御基準よりも優れています。
論文 参考訳(メタデータ) (2025-02-02T03:39:43Z) - Measuring Impacts of Poisoning on Model Parameters and Embeddings for Large Language Models of Code [4.305373051747465]
大規模言語モデル(LLM)はソフトウェア開発プラクティスに革命をもたらしたが、その安全性に関する懸念が生まれている。
バックドア攻撃には、トレーニングデータにトリガーを挿入することが含まれており、攻撃者はモデルの振る舞いを悪意を持って操作することができる。
本稿では,コードモデルにおける潜在的なバックドア信号を検出するためのモデルパラメータの解析に焦点をあてる。
論文 参考訳(メタデータ) (2024-05-19T06:53:20Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Software Vulnerability Detection via Deep Learning over Disaggregated
Code Graph Representation [57.92972327649165]
この研究は、コードコーパスから安全でないパターンを自動的に学習するためのディープラーニングアプローチを探求する。
コードには解析を伴うグラフ構造が自然に認められるため,プログラムの意味的文脈と構造的規則性の両方を利用する新しいグラフニューラルネットワーク(GNN)を開発する。
論文 参考訳(メタデータ) (2021-09-07T21:24:36Z) - Unsupervised Controllable Generation with Self-Training [90.04287577605723]
GANによる制御可能な世代は依然として困難な研究課題である。
本稿では,自己学習を通じてジェネレータを制御する潜伏符号の分布を学習するための教師なしフレームワークを提案する。
我々のフレームワークは、変分オートエンコーダのような他の変種と比較して、より良い絡み合いを示す。
論文 参考訳(メタデータ) (2020-07-17T21:50:35Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。