論文の概要: Hybrid Concolic Testing with Large Language Models for Guided Path Exploration
- arxiv url: http://arxiv.org/abs/2601.12274v1
- Date: Sun, 18 Jan 2026 06:09:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.545978
- Title: Hybrid Concolic Testing with Large Language Models for Guided Path Exploration
- Title(参考訳): ガイド付き経路探索のための大規模言語モデルを用いたハイブリッド衝突試験
- Authors: Mahdi Eslamimehr,
- Abstract要約: 強力なハイブリッドソフトウェアテスティングテクニックであるConcolic Testingは、歴史的に基本的な制限に悩まされてきた。
本稿では,これらの課題を克服するために,Large Language Models (LLMs) と並列実行を統合した新しいアルゴリズムフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.152292571922932
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Concolic testing, a powerful hybrid software testing technique, has historically been plagued by fundamental limitations such as path explosion and the high cost of constraint solving, which hinder its practical application in large-scale, real-world software systems. This paper introduces a novel algorithmic framework that synergistically integrates concolic execution with Large Language Models (LLMs) to overcome these challenges. Our hybrid approach leverages the semantic reasoning capabilities of LLMs to guide path exploration, prioritize interesting execution paths, and assist in constraint solving. We formally define the system architecture and algorithms that constitute this new paradigm. Through a series of experiments on both synthetic and real-world Fintech applications, we demonstrate that our approach significantly outperforms traditional concolic testing, random testing, and genetic algorithm-based methods in terms of branch coverage, path coverage, and time-to-coverage. The results indicate that by combining the strengths of both concolic execution and LLMs, our method achieves a more efficient and effective exploration of the program state space, leading to improved bug detection capabilities.
- Abstract(参考訳): 強力なハイブリッドソフトウェアテスト技術であるConcolic Testingは、これまで、パスの爆発や高コストの制約解決といった基本的な制限によって悩まされてきた。
本稿では,言語モデル (LLM) と並列実行を相乗的に統合し,これらの課題を克服する新しいアルゴリズムフレームワークを提案する。
我々のハイブリッドアプローチは、LLMのセマンティック推論機能を活用して、経路探索をガイドし、興味深い実行経路を優先順位付けし、制約解決を支援する。
我々はこの新しいパラダイムを構成するシステムアーキテクチャとアルゴリズムを正式に定義する。
人工的および実世界のフィンテックアプリケーションに関する一連の実験を通じて、我々のアプローチが従来のコンコリックテスト、ランダムテスト、遺伝的アルゴリズムベースの手法よりも、分岐カバレッジ、パスカバレッジ、時間対カバーの点で著しく優れていることを実証した。
その結果, コンコリック実行とLCMの長所を組み合わせることで, プログラム状態空間のより効率的かつ効率的な探索が可能となり, バグ検出性能が向上することが示唆された。
関連論文リスト
- Interaction-Grounded Learning for Contextual Markov Decision Processes with Personalized Feedback [59.287761696290865]
本稿では,個人化されたフィードバックを伴って,文脈的マルコフ決定プロセス(MDP)のサブ線形後悔保証を実現する計算効率の高いアルゴリズムを提案する。
提案手法の有効性を,合成エピソードMDPと実世界のユーザ予約データセットの両方を用いた実験を通じて,マルチターンインタラクションからパーソナライズされた目的を学習する際の有効性を示す。
論文 参考訳(メタデータ) (2026-02-09T06:29:54Z) - Landscape-aware Automated Algorithm Design: An Efficient Framework for Real-world Optimization [32.203665659052845]
大規模言語モデル(LLM)は、アルゴリズムの自動設計において新たなフロンティアを開放した。
LLMは探索過程を導くために対象問題の広範な評価を必要とする。
本研究では,アルゴリズム発見を低コスト評価から切り離す,革新的で効率的なフレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-04T13:18:45Z) - Rethinking Testing for LLM Applications: Characteristics, Challenges, and a Lightweight Interaction Protocol [83.83217247686402]
大言語モデル(LLM)は、単純なテキストジェネレータから、検索強化、ツール呼び出し、マルチターンインタラクションを統合する複雑なソフトウェアシステムへと進化してきた。
その固有の非決定主義、ダイナミズム、文脈依存は品質保証に根本的な課題をもたらす。
本稿では,LLMアプリケーションを3層アーキテクチャに分解する: textbftextitSystem Shell Layer, textbftextitPrompt Orchestration Layer, textbftextitLLM Inference Core。
論文 参考訳(メタデータ) (2025-08-28T13:00:28Z) - KompeteAI: Accelerated Autonomous Multi-Agent System for End-to-End Pipeline Generation for Machine Learning Problems [36.17807193758863]
KompeteAIは、動的ソリューション空間探索を備えた新しいAutoMLフレームワークである。
我々は動的ソリューション空間探索を備えた新しいAutoMLフレームワークであるKompeteAIを紹介する。
我々は,MLE-Benchにおける制約に対応するために,Kompete-benchを提案する。
論文 参考訳(メタデータ) (2025-08-13T20:29:56Z) - Latent Guided Sampling for Combinatorial Optimization [3.636090511738153]
最近の組合せ最適化手法は、深層学習を利用して解法戦略を学習し、監視学習または強化学習(RL)を通して訓練されている。
有望ではあるが、これらのアプローチは多くの場合、タスク固有の拡張に依存し、配布外のインスタンスではパフォーマンスが悪く、堅牢な推論機構が欠如している。
本稿では,効率的な問題インスタンスを条件づけた新しい潜在空間モデルLGS-Netを提案するとともに,効率的なニューラル推論手法であるLatent Guided Sampling(LGS)を提案する。
論文 参考訳(メタデータ) (2025-06-04T08:02:59Z) - EVOLvE: Evaluating and Optimizing LLMs For In-Context Exploration [76.66831821738927]
大規模言語モデル(LLM)は、不確実性の下で最適な意思決定を必要とするシナリオにおいて、未調査のままである。
多くのアプリケーションに関係のあるステートレス強化学習環境である,帯域幅を最適に決定できる LLM の (in) 能力の測定を行う。
最適な探索アルゴリズムの存在を動機として,このアルゴリズム知識をLLMに統合する効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-08T17:54:03Z) - Advancing Code Coverage: Incorporating Program Analysis with Large Language Models [8.31978033489419]
難解な分岐に到達可能なテストを生成する新しい技術である TELPA を提案する。
27のオープンソースPythonプロジェクトに対する実験結果から,TELPAは最先端のSBSTやLLMベースの技術よりも優れていたことが判明した。
論文 参考訳(メタデータ) (2024-04-07T14:08:28Z) - Robust Analysis of Multi-Task Learning Efficiency: New Benchmarks on Light-Weighed Backbones and Effective Measurement of Multi-Task Learning Challenges by Feature Disentanglement [69.51496713076253]
本稿では,既存のMTL手法の効率性に焦点をあてる。
バックボーンを小さくしたメソッドの大規模な実験と,MetaGraspNetデータセットを新しいテストグラウンドとして実施する。
また,MTLにおける課題の新規かつ効率的な識別子として,特徴分散尺度を提案する。
論文 参考訳(メタデータ) (2024-02-05T22:15:55Z) - REX: Rapid Exploration and eXploitation for AI Agents [103.68453326880456]
本稿では、REXと呼ばれるAIエージェントのための高速探索およびeXploitationのための改良されたアプローチを提案する。
REXは追加の報酬層を導入し、アッパー信頼境界(UCB)スコアに似た概念を統合し、より堅牢で効率的なAIエージェントのパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-07-18T04:26:33Z) - Maximize to Explore: One Objective Function Fusing Estimation, Planning,
and Exploration [87.53543137162488]
我々はtextttMEX というオンライン強化学習(オンラインRL)フレームワークを提案する。
textttMEXは、自動的に探索エクスプロイトのバランスをとりながら、見積もりと計画コンポーネントを統合する。
様々な MuJoCo 環境では,ベースラインを安定的なマージンで上回り,十分な報酬を得られる。
論文 参考訳(メタデータ) (2023-05-29T17:25:26Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z) - Sample-Efficient, Exploration-Based Policy Optimisation for Routing
Problems [2.6782615615913348]
本稿では,エントロピーに基づく新しい強化学習手法を提案する。
さらに、我々は、期待したリターンを最大化する、政治以外の強化学習手法を設計する。
我々のモデルは様々な経路問題に一般化可能であることを示す。
論文 参考訳(メタデータ) (2022-05-31T09:51:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。