論文の概要: BACFuzz: Exposing the Silence on Broken Access Control Vulnerabilities in Web Applications
- arxiv url: http://arxiv.org/abs/2507.15984v1
- Date: Mon, 21 Jul 2025 18:25:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 21:34:13.838396
- Title: BACFuzz: Exposing the Silence on Broken Access Control Vulnerabilities in Web Applications
- Title(参考訳): BACFuzz:WebアプリケーションにおけるBroken Access Control Vulnerabilityのサイレンスを公開
- Authors: I Putu Arya Dharmaadi, Mohannad Alhanahnah, Van-Thuan Pham, Fadi Mohsen, Fatih Turkmen,
- Abstract要約: Broken Access Control (BAC) は、Webアプリケーションにおいて最も重要かつ広範な脆弱性の1つだ。
その深刻さにもかかわらず、BACは重要な課題のために自動テストでは過小評価されている。
BACの脆弱性を明らかにするために特別に設計された最初のグレーボックスファジィフレームワークであるBACFuzzを紹介します。
- 参考スコア(独自算出の注目度): 5.424289788171823
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Broken Access Control (BAC) remains one of the most critical and widespread vulnerabilities in web applications, allowing attackers to access unauthorized resources or perform privileged actions. Despite its severity, BAC is underexplored in automated testing due to key challenges: the lack of reliable oracles and the difficulty of generating semantically valid attack requests. We introduce BACFuzz, the first gray-box fuzzing framework specifically designed to uncover BAC vulnerabilities, including Broken Object-Level Authorization (BOLA) and Broken Function-Level Authorization (BFLA) in PHP-based web applications. BACFuzz combines LLM-guided parameter selection with runtime feedback and SQL-based oracle checking to detect silent authorization flaws. It employs lightweight instrumentation to capture runtime information that guides test generation, and analyzes backend SQL queries to verify whether unauthorized inputs flow into protected operations. Evaluated on 20 real-world web applications, including 15 CVE cases and 2 known benchmarks, BACFuzz detects 16 of 17 known issues and uncovers 26 previously unknown BAC vulnerabilities with low false positive rates. All identified issues have been responsibly disclosed, and artifacts will be publicly released.
- Abstract(参考訳): Broken Access Control (BAC) は、Webアプリケーションにおいて最も重要かつ広範な脆弱性の1つであり、攻撃者は無許可のリソースにアクセスしたり、特権的なアクションを実行できる。
その深刻さにもかかわらず、BACは信頼性の欠如とセマンティックに有効なアタックリクエストの生成の難しさという大きな課題のために、自動テストにおいて過小評価されている。
このフレームワークは、PHPベースのWebアプリケーションでBOLA(Broken Object-Level Authorization)やBFLA(Broken Function-Level Authorization)など、BACの脆弱性を明らかにするために設計された。
BACFuzzは、LLM誘導パラメータ選択とランタイムフィードバックとSQLベースのオラクルチェックを組み合わせることで、サイレント認証の欠陥を検出する。
ライトウェイトなインスツルメンテーションを使用して、テスト生成をガイドするランタイム情報をキャプチャし、バックエンドのSQLクエリを分析して、不正な入力が保護された操作に流れ込むかどうかを検証する。
BACFuzzは15のCVEケースと2つの既知のベンチマークを含む20の現実世界のWebアプリケーションで評価され、17の既知の問題のうち16を検知し、偽陽性率の低い26の既知のBAC脆弱性を発見した。
特定されたすべての問題が責任を持って開示され、アーティファクトが公開される。
関連論文リスト
- Rethinking Broken Object Level Authorization Attacks Under Zero Trust Principle [24.549812554065475]
Broken Object Level Authorization (BOLA)は、API Security Top 10の最大の脆弱性である。
ゼロ信頼原則に基づく防衛枠組みであるBOLAZを提案する。
10のGitHubプロジェクトに関する実証研究を通じてBOLAZを検証する。
論文 参考訳(メタデータ) (2025-07-03T04:40:14Z) - Detecting and Mitigating SQL Injection Vulnerabilities in Web Applications [0.0]
本研究は, 効果的な検出・防止戦略の実践的洞察を提供することにより, この分野に貢献する。
この研究は、脆弱性評価と修復に対する体系的なアプローチを示す。
論文 参考訳(メタデータ) (2025-06-07T01:06:31Z) - CyberGym: Evaluating AI Agents' Cybersecurity Capabilities with Real-World Vulnerabilities at Scale [46.76144797837242]
大規模言語モデル(LLM)エージェントは、自律的なサイバーセキュリティタスクの処理において、ますます熟練している。
既存のベンチマークは不足していて、現実のシナリオをキャプチャできなかったり、スコープが限られていたりします。
我々はCyberGymを紹介した。CyberGymは1,507の現実世界の脆弱性を特徴とする大規模かつ高品質なサイバーセキュリティ評価フレームワークである。
論文 参考訳(メタデータ) (2025-06-03T07:35:14Z) - VPI-Bench: Visual Prompt Injection Attacks for Computer-Use Agents [74.6761188527948]
完全なシステムアクセスを持つコンピュータ利用エージェント(CUA)は、セキュリティとプライバシの重大なリスクを負う。
我々は、悪意のある命令がレンダリングされたユーザーインターフェイスに視覚的に埋め込まれた視覚的プロンプトインジェクション(VPI)攻撃について検討する。
実験により,現在のCUAとBUAは,それぞれのプラットフォーム上で最大51%,100%の速度で騙すことができることがわかった。
論文 参考訳(メタデータ) (2025-06-03T05:21:50Z) - CANTXSec: A Deterministic Intrusion Detection and Prevention System for CAN Bus Monitoring ECU Activations [53.036288487863786]
物理ECUアクティベーションに基づく最初の決定論的侵入検知・防止システムであるCANTXSecを提案する。
CANバスの古典的な攻撃を検知・防止し、文献では調査されていない高度な攻撃を検知する。
物理テストベッド上での解法の有効性を実証し,攻撃の両クラスにおいて100%検出精度を達成し,100%のFIAを防止した。
論文 参考訳(メタデータ) (2025-05-14T13:37:07Z) - LibVulnWatch: A Deep Assessment Agent System and Leaderboard for Uncovering Hidden Vulnerabilities in Open-Source AI Libraries [11.331334831883058]
オープンソースのAIライブラリは、現代のAIシステムの基礎となっているが、セキュリティ、ライセンス、メンテナンス、サプライチェーンの整合性、規制コンプライアンスといった、重大な、過小評価されたリスクがある。
LibVulnWatchは,大規模言語モデルとエージェントの最近の進歩を利用して,これらのライブラリの深いエビデンスに基づく評価を行うシステムである。
論文 参考訳(メタデータ) (2025-05-13T12:58:11Z) - Automated Static Vulnerability Detection via a Holistic Neuro-symbolic Approach [17.872674648772616]
本稿では,LLM(Large Language Model)と古典的脆弱性チェッカーの相補的長所を組み合わせた,新しいニューロシンボリック・フレームワークであるMoCQを紹介する。
MoCQは、専門家が開発したクエリと同等の精度とリコールを実現している。
MoCQはまた、専門家が見逃した46の新しい脆弱性パターンを明らかにした。
論文 参考訳(メタデータ) (2025-04-22T17:33:53Z) - Improving the Context Length and Efficiency of Code Retrieval for Tracing Security Vulnerability Fixes [7.512949497610182]
CVEを修正するためのパッチコミットをトレース/検索する既存のアプローチは、2つの大きな課題に悩まされている。
SITPatchTracerは、既知の脆弱性パッチをトレースするスケーラブルで効果的な検索システムである。
SITPatchTracerを使って、GitHub Advisoryデータベース内の35の新しいCVEのパッチリンクをトレースしてマージしました。
論文 参考訳(メタデータ) (2025-03-29T01:53:07Z) - RTBAS: Defending LLM Agents Against Prompt Injection and Privacy Leakage [13.03711739119631]
既存のディフェンス(OpenAI GPT)は、すべてのツールコールの前にユーザ確認を必要とする。
我々はRTBAS(Robust TBAS)を導入し,完全性と機密性を維持するツールコールを自動的に検出し,実行する。
これらの課題を克服するために、LM-as-a-judge と attention-based saliency という2つの新しい依存性スクリーニング手法を提案する。
論文 参考訳(メタデータ) (2025-02-13T05:06:22Z) - Towards Copyright Protection for Knowledge Bases of Retrieval-augmented Language Models via Reasoning [58.57194301645823]
大規模言語モデル(LLM)は、現実のパーソナライズされたアプリケーションにますます統合されている。
RAGで使用される知識基盤の貴重かつしばしばプロプライエタリな性質は、敵による不正使用のリスクをもたらす。
これらの知識基盤を保護するための透かし技術として一般化できる既存の方法は、一般的に毒やバックドア攻撃を含む。
我々は、無害な」知識基盤の著作権保護の名称を提案する。
論文 参考訳(メタデータ) (2025-02-10T09:15:56Z) - FATH: Authentication-based Test-time Defense against Indirect Prompt Injection Attacks [45.65210717380502]
大規模言語モデル(LLM)は、現実世界のアプリケーションのための追加ツールとテキスト情報を備えたバックボーンとして広くデプロイされている。
プロンプトインジェクション攻撃は特に脅威であり、外部のテキスト情報に悪意のあるインストラクションを注入することで、LLMを利用して攻撃者が望む答えを生成することができる。
本稿では,AuThentication with Hash-based tags (FATH)という新しいテストタイム防衛戦略を紹介する。
論文 参考訳(メタデータ) (2024-10-28T20:02:47Z) - EmInspector: Combating Backdoor Attacks in Federated Self-Supervised Learning Through Embedding Inspection [53.25863925815954]
フェデレートされた自己教師付き学習(FSSL)は、クライアントの膨大な量の未ラベルデータの利用を可能にする、有望なパラダイムとして登場した。
FSSLはアドバンテージを提供するが、バックドア攻撃に対する感受性は調査されていない。
ローカルモデルの埋め込み空間を検査し,悪意のあるクライアントを検知する埋め込み検査器(EmInspector)を提案する。
論文 参考訳(メタデータ) (2024-05-21T06:14:49Z) - Benchmarking and Defending Against Indirect Prompt Injection Attacks on Large Language Models [79.0183835295533]
我々は,このような脆弱性のリスクを評価するために,BIPIAと呼ばれる間接的インジェクション攻撃のための最初のベンチマークを導入した。
我々の分析では、LLMが情報コンテキストと動作可能な命令を区別できないことと、外部コンテンツ内での命令の実行を回避できないことの2つの主要な要因を同定した。
ブラックボックスとホワイトボックスという2つの新しい防御機構と、これらの脆弱性に対処するための明確なリマインダーを提案する。
論文 参考訳(メタデータ) (2023-12-21T01:08:39Z) - Demystifying RCE Vulnerabilities in LLM-Integrated Apps [20.01949990700702]
LangChainのようなフレームワークはLLM統合アプリ開発を支援し、カスタムアクションのためのコード実行ユーティリティ/APIを提供する。
これらの機能は理論的にはリモートコード実行(RCE)脆弱性を導入し、プロンプトインジェクションによるリモートコード実行を可能にする。
以前の研究では、これらのフレームワークのRCE脆弱性や、アプリケーションやエクスプロイトの影響を体系的に調査することはなかった。
論文 参考訳(メタデータ) (2023-09-06T11:39:37Z) - On the Security Vulnerabilities of Text-to-SQL Models [34.749129843281196]
6つの商用アプリケーション内のモジュールは悪意のあるコードを生成するために操作可能であることを示す。
これはNLPモデルが野生の攻撃ベクトルとして活用できる最初の実演である。
この研究の目的は、NLPアルゴリズムに関連する潜在的なソフトウェアセキュリティ問題にコミュニティの注意を向けることである。
論文 参考訳(メタデータ) (2022-11-28T14:38:45Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。