論文の概要: RSFuzz: A Robustness-Guided Swarm Fuzzing Framework Based on Behavioral Constraints
- arxiv url: http://arxiv.org/abs/2409.04736v2
- Date: Fri, 03 Oct 2025 12:14:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:51.873553
- Title: RSFuzz: A Robustness-Guided Swarm Fuzzing Framework Based on Behavioral Constraints
- Title(参考訳): RSFuzz: 行動制約に基づくロバストなガイド付きSwarm Fuzzingフレームワーク
- Authors: Ruoyu Zhou, Zhiwei Zhang, Haocheng Han, Xiaodong Zhang, Zehan Chen, Jun Sun, Yulong Shen, Dehai Xu,
- Abstract要約: RSFuzzは、マルチロボットシステムの論理的脆弱性を検出するために設計された堅牢性誘導型Swarmファジィフレームワークである。
単一攻撃者ファジング(SAファジング)と多重攻撃者ファジング(MAファジング)の2つのスウォームファジングスキームを構築した。
その結果、RSFuzzは、平均的な17.75%の効率改善と38.4%の効率向上により、最先端技術よりも優れていた。
- 参考スコア(独自算出の注目度): 19.659469020494022
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Multi-robot swarms play an essential role in complex missions including battlefield reconnaissance, agricultural pest monitoring, as well as disaster search and rescue. Unfortunately, given the complexity of swarm algorithms, logical vulnerabilities are inevitable and often lead to severe safety and security consequences. Although various methods have been presented for detecting logical vulnerabilities through software testing, when they are used in swarm environments, these techniques face significant challenges: 1) Due to the swarm's vast composable parameter space, it is extremely difficult to generate failure-triggering scenarios, which is crucial to effectively expose logical vulnerabilities; 2) Because of the swarm's high flexibility and dynamism, it is challenging to model and evaluate the global swarm state, particularly in terms of cooperative behaviors, which makes it difficult to detect logical vulnerabilities. In this work, we propose RSFuzz, a robustness-guided swarm fuzzing framework designed to detect logical vulnerabilities in multi-robot systems. It leverages the robustness of behavioral constraints to quantitatively evaluate the swarm state and guide the generation of failure-triggering scenarios. In addition, RSFuzz identifies and targets key swarm nodes for perturbations, effectively reducing the input space. Upon the RSFuzz framework, we construct two swarm fuzzing schemes, Single Attacker Fuzzing (SA-Fuzzing) and Multiple Attacker Fuzzing (MA-Fuzzing), which employ single and multiple attackers, respectively, during fuzzing to disturb swarm mission execution. We evaluated RSFuzz's performance with three popular swarm algorithms in simulated environments. The results show that RSFuzz outperforms the state-of-the-art with an average improvement of 17.75\% in effectiveness and a 38.4\% increase in efficiency. We validated some vulnerabilities in real world.
- Abstract(参考訳): マルチロボット群は、戦場偵察、農業害虫モニタリング、災害捜索、救助などの複雑な任務において重要な役割を担っている。
残念ながら、Swarmアルゴリズムの複雑さを考えると、論理的な脆弱性は避けられず、しばしば深刻な安全性とセキュリティ上の結果をもたらす。
ソフトウェアテストを通じて論理的脆弱性を検出する様々な方法が提示されているが、Swarm環境で使用される場合、これらの手法は重大な課題に直面している。
1) Swarmの膨大な構成可能なパラメータ空間のため、論理的脆弱性を効果的に公開するために重要な障害トリガシナリオを生成することは極めて困難である。
2)Swarmの柔軟性とダイナミズムが高いため,特に協調行動の観点からグローバルなSwarm状態のモデル化と評価が困難であり,論理的脆弱性の検出が困難である。
本研究では,マルチロボットシステムにおける論理的脆弱性を検出するために,ロバストネス誘導型SwarmファジィフレームワークであるRSFuzzを提案する。
動作制約の堅牢性を活用して、Swarm状態を定量的に評価し、障害トリガシナリオの生成を導く。
さらにRSFuzzは、摂動のためのキーSwarmノードを特定し、ターゲットとし、入力スペースを効果的に削減する。
RSFuzzフレームワークでは,単一攻撃者ファジング(SA-ファジング)と複数攻撃者ファジング(MA-ファジング)という2つの群集ファジング方式を構築し,群集ミッション実行を妨害するファジングを行う。
シミュレーション環境における3つのSwarmアルゴリズムを用いてRSFuzzの性能評価を行った。
その結果、RSFuzzは平均17.75\%の効率向上と38.4\%の効率向上により最先端技術よりも優れていた。
現実の世界でいくつかの脆弱性を検証しました。
関連論文リスト
- LLAMA: Multi-Feedback Smart Contract Fuzzing Framework with LLM-Guided Seed Generation [56.84049855266145]
進化的突然変異戦略とハイブリッドテスト技術を統合したマルチフィードバックスマートコントラクトファジリングフレームワーク(LLAMA)を提案する。
LLAMAは、91%の命令カバレッジと90%のブランチカバレッジを達成すると同時に、148の既知の脆弱性のうち132が検出される。
これらの結果は、現実のスマートコントラクトセキュリティテストシナリオにおけるLAMAの有効性、適応性、実用性を強調している。
論文 参考訳(メタデータ) (2025-07-16T09:46:58Z) - Hybrid Approach to Directed Fuzzing [0.0]
そこで本研究では,新しいシードスケジューリングアルゴリズムを用いた双方向ファジリングのハイブリッド手法を提案する。
LibAFL-DiFuzz を有向ファザとして,Sydr-Fuzz を動的シンボリックエグゼキュータとして,Sydr-Fuzz ツールに実装した。
論文 参考訳(メタデータ) (2025-07-07T10:29:16Z) - Directed Greybox Fuzzing via Large Language Model [5.667013605202579]
HGFuzzerは、パス制約問題をターゲットコード生成タスクに変換する自動フレームワークである。
実世界の脆弱性20件についてHGFuzzerを評価し,最初の1分以内に11件を含む17件をトリガーした。
HGFuzzerは9つの既知の脆弱性を発見し、そのすべてにCVE IDが割り当てられた。
論文 参考訳(メタデータ) (2025-05-06T11:04:07Z) - Runtime Anomaly Detection for Drones: An Integrated Rule-Mining and Unsupervised-Learning Approach [6.924083445159127]
UAVは複数のセンサー入力に依存しており、物理的不安定性と深刻な安全上の懸念を引き起こす可能性がある。
LSTMニューラルネットワークに基づく最近の異常検出手法は有望な結果を示しているが、3つの課題が続いている。
これらの課題に触発された本研究では、ドローンの異常検出に対する統合的なアプローチであるRADDを紹介する。
論文 参考訳(メタデータ) (2025-05-03T23:48:50Z) - Reasoning-Augmented Conversation for Multi-Turn Jailbreak Attacks on Large Language Models [53.580928907886324]
Reasoning-Augmented Conversationは、新しいマルチターンジェイルブレイクフレームワークである。
有害なクエリを良心的な推論タスクに再構成する。
RACEは,複雑な会話シナリオにおいて,最先端攻撃の有効性を実現する。
論文 参考訳(メタデータ) (2025-02-16T09:27:44Z) - WILT: A Multi-Turn, Memorization-Robust Inductive Logic Benchmark for LLMs [0.8883751685905831]
メモリ化に抵抗するように設計された,シンプルなマルチターン推論ベンチマークである Wason Inductive Logic Test (WILT) を紹介する。
以上の結果から,LSMはこの課題に苦しむことが明らかとなった。
これらの変動にもかかわらず、最高の性能モデルは28%の精度しか達成せず、複雑なマルチターン推論タスクにおけるLLM性能の重大なギャップを浮き彫りにしている。
論文 参考訳(メタデータ) (2024-10-14T18:29:13Z) - FFAA: Multimodal Large Language Model based Explainable Open-World Face Forgery Analysis Assistant [59.2438504610849]
FFAA: Face Forgery Analysis Assistant(MLLM)とMIDS(Multi-Awer Intelligent Decision System)について紹介する。
提案手法は,ユーザフレンドリで説明可能な結果を提供するだけでなく,従来の手法に比べて精度と堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-08-19T15:15:20Z) - High-Dimensional Fault Tolerance Testing of Highly Automated Vehicles Based on Low-Rank Models [39.139025989575686]
HAVの安全性を評価するために, フォールトインジェクション(FI)試験を実施している。
テストケースを完全にカバーするためには、さまざまな駆動シナリオと障害設定を検討する必要がある。
低ランクスムースネス正規化行列因子化フレームワークにおけるFI試験の高速化を提案する。
論文 参考訳(メタデータ) (2024-07-28T14:27:13Z) - Real-Time Anomaly Detection and Reactive Planning with Large Language Models [18.57162998677491]
例えば、大規模な言語モデル(LLM)は、インターネットスケールのデータに基づいて訓練され、ゼロショット機能を持つ。
本稿では,潜在的な異常に関する判断を安全な制御フレームワークに組み込む2段階の推論フレームワークを提案する。
これにより、モニターは、四輪車や自動運転車のような動的ロボットシステムの信頼性を向上させることができる。
論文 参考訳(メタデータ) (2024-07-11T17:59:22Z) - Multi-granular Adversarial Attacks against Black-box Neural Ranking Models [111.58315434849047]
多粒性摂動を取り入れた高品質な逆数例を作成する。
我々は,多粒体攻撃を逐次的意思決定プロセスに変換する。
本手法は,攻撃の有効性と非受容性の両方において,一般的なベースラインを超えている。
論文 参考訳(メタデータ) (2024-04-02T02:08:29Z) - Faith and Fate: Limits of Transformers on Compositionality [109.79516190693415]
3つの代表的構成課題にまたがる変圧器大言語モデルの限界について検討する。
これらのタスクは、問題をサブステップに分割し、これらのステップを正確な答えに合成する必要があります。
実験結果から,多段階合成推論を線形化部分グラフマッチングに還元することにより,トランスフォーマーLLMが構成課題を解くことが示唆された。
論文 参考訳(メタデータ) (2023-05-29T23:24:14Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - DeFuzz: Deep Learning Guided Directed Fuzzing [41.61500799890691]
本稿では,DeFuzzというソフトウェア脆弱性検出のための,ディープラーニング(DL)誘導指向ファズリングを提案する。
DeFuzzには2つの主要なスキームが含まれている。 1) 潜在的に脆弱な機能と位置(脆弱性のあるアドレス)を特定するために、トレーニング済みのDL予測モデルを使用する。
正確には、Bidirectional-LSTM (BiLSTM) を用いて注意語を識別し、その脆弱性はこれらの注意語に関連付けられている。
論文 参考訳(メタデータ) (2020-10-23T03:44:03Z) - Active Fuzzing for Testing and Securing Cyber-Physical Systems [8.228859318969082]
パケットレベルのCPSネットワーク攻撃のテストスイートを見つけるための,能動ファジィングを提案する。
私たちのソリューションの鍵は、ペイロードをサンプリングすることでモデルを反復的に更新するオンラインアクティブラーニングを使用することです。
本研究は,水浄化プラントテストベッドに実装した活性ファジィングの有効性を評価し,フロー,プレッシャ,オーバー/アンダーフロー攻撃の試験スイートを自動的に検出できることを見出した。
論文 参考訳(メタデータ) (2020-05-28T16:19:50Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z) - Hidden Cost of Randomized Smoothing [72.93630656906599]
本稿では、現在のランダム化平滑化による副作用を指摘する。
具体的には,1)スムーズな分類器の決定境界が小さくなり,クラスレベルでの精度の相違が生じること,2)学習過程における雑音増強の適用は,一貫性のない学習目的による縮小問題を必ずしも解決しない,という2つの主要なポイントを具体化し,証明する。
論文 参考訳(メタデータ) (2020-03-02T23:37:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。