論文の概要: SeedAIchemy: LLM-Driven Seed Corpus Generation for Fuzzing
- arxiv url: http://arxiv.org/abs/2511.12448v1
- Date: Sun, 16 Nov 2025 04:24:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.176067
- Title: SeedAIchemy: LLM-Driven Seed Corpus Generation for Fuzzing
- Title(参考訳): SeedAIchemy: ファジングのためのLCM駆動型種子コーパス生成
- Authors: Aidan Wen, Norah A. Alzahrani, Jingzhi Jiang, Andrew Joe, Karen Shieh, Andy Zhang, Basel Alomair, David Wagner,
- Abstract要約: SeedAIchemyは、インターネットから利用可能なファイルを収集するための異なるアプローチを実装する5つのモジュールで構成されている。
5つのモジュールのうち4つは、大きな言語モデル(LLM)を使用して、コーパスの品質を最大化するために設計された検索用語を構築している。
- 参考スコア(独自算出の注目度): 1.3754393523864372
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce SeedAIchemy, an automated LLM-driven corpus generation tool that makes it easier for developers to implement fuzzing effectively. SeedAIchemy consists of five modules which implement different approaches at collecting publicly available files from the internet. Four of the five modules use large language model (LLM) workflows to construct search terms designed to maximize corpus quality. Corpora generated by SeedAIchemy perform significantly better than a naive corpus and similarly to a manually-curated corpus on a diverse range of target programs and libraries.
- Abstract(参考訳): 我々は,自動LLM駆動コーパス生成ツールであるSeedAIchemyを紹介した。
SeedAIchemyは、インターネットから利用可能なファイルを収集するための異なるアプローチを実装する5つのモジュールで構成されている。
5つのモジュールのうち4つは、大きな言語モデル(LLM)ワークフローを使用して、コーパスの品質を最大化するために設計された検索用語を構築している。
SeedAIchemyが生成したコーパスは、単純コーパスよりもはるかに優れており、多様なターゲットプログラムやライブラリ上で手作業で計算されたコーパスと同様である。
関連論文リスト
- From Articles to Code: On-Demand Generation of Core Algorithms from Scientific Publications [0.0]
学術出版物におけるリッチなメソッド記述は、現代の大規模言語モデルのスタンドアロン仕様として機能することを示す。
我々は、従来の出版物から引き出された多種多様なコアアルゴリズムを実装することで、最先端モデルをベンチマークする。
論文 参考訳(メタデータ) (2025-07-30T01:52:01Z) - LIBMoE: A Library for comprehensive benchmarking Mixture of Experts in Large Language Models [7.724874639022896]
本稿では,再現性,効率,MoE研究のための統合フレームワークであるLibMoEを紹介する。
i) ルーティングのダイナミクス、専門家の選択パターン、ルーティングの安定性と最適性、そしてルーティングのエントロピーがタスクの特殊化とエキスパートの多様性を明らかにする方法について、包括的な分析を行う。
導入障壁を低くし、評価を標準化し、包括的な分析とともに、LibMoEはMoE研究へのアクセスを拡大し、将来のイノベーションを導くための信頼性の高いベンチマークを確立します。
論文 参考訳(メタデータ) (2024-11-01T14:04:36Z) - Tool Learning in the Wild: Empowering Language Models as Automatic Tool Agents [56.822238860147024]
大規模な言語モデルを外部ツールで拡張することは、彼らのユーティリティを拡張するための有望なアプローチとして現れました。
以前のメソッドは、ツールドキュメントを手動で解析し、コンテキスト内デモを作成し、ツールをLLMがステップバイステップの推論で使用する構造化フォーマットに変換する。
LLMがツール使用ワークフローを自動化できるフレームワークであるAutoToolsを提案する。
論文 参考訳(メタデータ) (2024-05-26T11:40:58Z) - Semantic Routing for Enhanced Performance of LLM-Assisted Intent-Based 5G Core Network Management and Orchestration [10.981422497762837]
大規模言語モデル(LLM)は人工知能(AI)アプリケーションで急速に普及している。
本稿では,5Gコアネットワークの意図に基づく管理とオーケストレーションにおける性能向上を目的としたセマンティックルーティングを提案する。
論文 参考訳(メタデータ) (2024-04-24T13:34:20Z) - Executable Code Actions Elicit Better LLM Agents [76.95566120678787]
この研究は、Pythonコードを使用して、Large Language Model(LLM)エージェントのアクションを統一されたアクション空間(CodeAct)に統合することを提案する。
Pythonインタプリタと統合されたCodeActは、コードアクションを実行し、事前アクションを動的に修正したり、マルチターンインタラクションを通じて新しい観察に新しいアクションを発行することができる。
CodeActのパフォーマンス向上は、解釈可能なコードを実行し、自然言語を使ってユーザとコラボレーションすることで、環境と対話するオープンソースのLLMエージェントを構築する動機となります。
論文 参考訳(メタデータ) (2024-02-01T21:38:58Z) - ML-Bench: Evaluating Large Language Models and Agents for Machine Learning Tasks on Repository-Level Code [76.84199699772903]
ML-Benchは、既存のコードリポジトリを利用してタスクを実行する現実世界のプログラミングアプリケーションに根ざしたベンチマークである。
LLM(Large Language Model)とAIエージェントの両方を評価するために、事前に定義されたデプロイメント環境でLLMのテキスト-コード変換を評価するML-LLM-Benchと、Linuxサンドボックス環境でエンドツーエンドのタスク実行で自律エージェントをテストするML-Agent-Benchの2つの設定が採用されている。
論文 参考訳(メタデータ) (2023-11-16T12:03:21Z) - LLM4VV: Developing LLM-Driven Testsuite for Compiler Validation [7.979116939578324]
大規模言語モデル(LLM)は、自然言語を含む幅広いアプリケーションのための強力なツールである。
オープンソースLLM -- Meta Codellama、PhindによるCodellama、Deepseek Deepseek Coder、クローズソースLLM -- OpenAI GPT-3.5-Turbo、GPT-4-Turboなど、最先端のLLMの機能について検討する。
論文 参考訳(メタデータ) (2023-10-08T01:43:39Z) - CRAFT: Customizing LLMs by Creating and Retrieving from Specialized
Toolsets [75.64181719386497]
大規模言語モデル(LLM)のためのツール作成・検索フレームワークであるCRAFTを提案する。
タスク用に特別にキュレートされたツールセットを作成し、複雑なタスクを解決する能力を高めるためにこれらのセットからツールを取得するコンポーネントをLLMに装備する。
本手法はフレキシブルに設計されており,既製のLCMを細かな調整なしに未確認領域やモダリティに適応するためのプラグアンドプレイ方式を提供する。
論文 参考訳(メタデータ) (2023-09-29T17:40:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。