論文の概要: Orion: Fuzzing Workflow Automation
- arxiv url: http://arxiv.org/abs/2509.15195v1
- Date: Thu, 18 Sep 2025 17:52:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:53.373097
- Title: Orion: Fuzzing Workflow Automation
- Title(参考訳): Orion: ワークフロー自動化のファジィ化
- Authors: Max Bazalii, Marius Fleischer,
- Abstract要約: 従来のツールとLLM推論を統合することでファジィのマニュアルを自動化するフレームワークであるOrionを紹介した。
ベンチマークスイート全体を通じて、Orionはワークフローステージに応じて、人間の労力を46~204倍削減します。
我々は、広く使われているオープンソースのclibライブラリで、これまで知られていなかった2つの脆弱性を発見し、その効果を実証する。
- 参考スコア(独自算出の注目度): 0.30079490585515345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fuzz testing is one of the most effective techniques for finding software vulnerabilities. While modern fuzzers can generate inputs and monitor executions automatically, the overall workflow, from analyzing a codebase, to configuring harnesses, to triaging results, still requires substantial manual effort. Prior attempts focused on single stages such as harness synthesis or input minimization, leaving researchers to manually connect the pieces into a complete fuzzing campaign. We introduce Orion, a framework that automates the the manual bottlenecks of fuzzing by integrating LLM reasoning with traditional tools, allowing campaigns to scale to settings where human effort alone was impractical. Orion uses LLMs for code reasoning and semantic guidance, while relying on deterministic tools for verification, iterative refinement, and tasks that require precision. Across our benchmark suite, Orion reduces human effort by 46-204x depending on the workflow stage, and we demonstrate its effectiveness through the discovery of two previously unknown vulnerabilities in the widely used open-source clib library.
- Abstract(参考訳): ファズテストはソフトウェア脆弱性を見つけるための最も効果的なテクニックの1つである。
現代のファジィはインプットを生成し、実行を自動的に監視するが、コードベースの分析からハーネスの設定、結果のトリアージに至るまで、全体的なワークフローは依然としてかなりの手作業を要する。
以前の試みでは、ハーネス合成や入力最小化のような単一段階に焦点が当てられ、研究者は手動でファジィングのキャンペーンに繋がった。
従来のツールとLCM推論を統合することでファジィの手作業によるボトルネックを自動化するフレームワークであるOrionを導入する。
Orionは、コード推論とセマンティックガイダンスにLLMを使用し、検証、反復的洗練、正確性を必要とするタスクに決定論的ツールに依存している。
ベンチマークスイート全体にわたって、Orionはワークフローステージに応じて、人的労力を46~204倍削減します。
関連論文リスト
- VulnLLM-R: Specialized Reasoning LLM with Agent Scaffold for Vulnerability Detection [45.69684471143409]
VulnLLM-R は脆弱性検出のための LLM を最優先の推論である。
私たちは70億のパラメータを持つ推論モデルをトレーニングします。
VulnLLM-R は SOTA 静的解析ツールよりも有効性と効率が優れていることを示す。
論文 参考訳(メタデータ) (2025-12-08T13:06:23Z) - LABIIUM: AI-Enhanced Zero-configuration Measurement Automation System [0.0]
本稿では,実験の合理化とユーザの生産性向上を目的としたAIによる計測自動化システムであるLABIiumを紹介する。
Lab-Automation-Measurement Bridges (LAMBs)はVSCodeやPythonといった標準ツールを使ったシームレスなインスツルメンタ接続を可能にし、セットアップのオーバーヘッドをなくす。
この評価は、LABIiumが研究室の生産性を高め、研究と産業におけるデジタルトランスフォーメーションを支援する能力を強調している。
論文 参考訳(メタデータ) (2024-12-07T00:15:24Z) - Learning to Ask: When LLM Agents Meet Unclear Instruction [55.65312637965779]
大きな言語モデル(LLM)は、言語スキルだけでは達成不可能なタスクに対処するための外部ツールを活用することができる。
我々は、不完全な命令下でのLLMツールの使用性能を評価し、エラーパターンを分析し、Noisy ToolBenchと呼ばれる挑戦的なツール使用ベンチマークを構築した。
Ask-when-Needed (AwN) という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-31T23:06:12Z) - Get my drift? Catching LLM Task Drift with Activation Deltas [55.75645403965326]
タスクドリフトは攻撃者がデータを流出させたり、LLMの出力に影響を与えたりすることを可能にする。
そこで, 簡易線形分類器は, 分布外テストセット上で, ほぼ完全なLOC AUCでドリフトを検出することができることを示す。
このアプローチは、プロンプトインジェクション、ジェイルブレイク、悪意のある指示など、目に見えないタスクドメインに対して驚くほどうまく一般化する。
論文 参考訳(メタデータ) (2024-06-02T16:53:21Z) - CodecLM: Aligning Language Models with Tailored Synthetic Data [51.59223474427153]
命令追従能力のための高品質な合成データを適応的に生成するフレームワークであるCodecLMを紹介する。
まず、ターゲットの指示分布をキャプチャするために、オンザフライで生成された簡潔なキーワードであるメタデータにシード命令をエンコードする。
また、デコード中に自己論理とコントラストフィルタを導入し、データ効率の良いサンプルを調整する。
論文 参考訳(メタデータ) (2024-04-08T21:15:36Z) - Semi-supervised Open-World Object Detection [74.95267079505145]
半教師付きオープンワールド検出(SS-OWOD)という,より現実的な定式化を導入する。
提案したSS-OWOD設定では,最先端OWOD検出器の性能が劇的に低下することが実証された。
我々は,MS COCO, PASCAL, Objects365, DOTAの4つのデータセットを用いた実験を行い, 提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-02-25T07:12:51Z) - Human-Instruction-Free LLM Self-Alignment with Limited Samples [64.69906311787055]
本研究では,人間の関与なしに,大規模言語モデル(LLM)を反復的に自己調整するアルゴリズムを提案する。
既存の研究と異なり、我々のアルゴリズムは人造指示にも報酬にも依存せず、人間の関与を著しく減らしている。
提案手法は,LLMの自己一般化能力を解き明かし,ほぼゼロに近い人的監督と整合性を持たせることができることを示す。
論文 参考訳(メタデータ) (2024-01-06T14:00:12Z) - Prompting and Fine-Tuning Open-Sourced Large Language Models for Stance
Classification [1.6317061277457001]
スタンス分類は、社会科学から機械学習まで、領域における研究の焦点となっている。
現在のスタンス検出法は、主に文の手動アノテーションに依存し、次に教師付き機械学習モデルを訓練する。
我々は,手作業によるアノテーションの必要性を低減あるいは排除できるスタンス検出手法として,大規模言語モデルの利用について検討する。
論文 参考訳(メタデータ) (2023-09-24T19:36:17Z) - UNFUSED: UNsupervised Finetuning Using SElf supervised Distillation [53.06337011259031]
音声分類に自己教師付き学習を活用する新しい手法UnFuSeDを提案する。
エンコーダを用いて、実際の微調整ステップの前に、教師なしの微調整のための擬似ラベルを生成する。
UnFuSeDはLAPEベンチマークで最先端の結果を達成し、すべてのベースラインを大きく上回っている。
論文 参考訳(メタデータ) (2023-03-10T02:43:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。