論文の概要: LiTelFuzz : Swarms Fuzzing Based on Linear Temporal Logic Constraints
- arxiv url: http://arxiv.org/abs/2409.04736v1
- Date: Sat, 7 Sep 2024 06:46:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-10 21:01:36.873799
- Title: LiTelFuzz : Swarms Fuzzing Based on Linear Temporal Logic Constraints
- Title(参考訳): LiTelFuzz : 線形時間論理制約に基づくスワーミング
- Authors: Zhiwei Zhang, Ruoyu Zhou, Haocheng Han, Xiaodong Zhang, Yulong Shen,
- Abstract要約: マルチロボット群における論理的欠陥を発見するための形式的検証手法を提案する。
具体的には,これらの制約に基づいて,SwarmとSwarmの線形時間論理制約を抽象化する。
このアイデアに基づいて、LiTelFuzzをベースとした単一攻撃ドローンファジリングスキームと複数攻撃ドローンスキームを実装した。
- 参考スコア(独自算出の注目度): 16.59887508016901
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Multi-robot swarms utilize swarm intelligence to collaborate on tasks and play an increasingly significant role in a variety of practical scenarios. However, due to the complex design, multi-robot swarm systems often have vulnerabilities caused by logical errors, which can severely disrupt the normal operations of multi-robot swarms. Despite the significant security threats that logical vulnerabilities pose to multi-robot swarms, there are still considerable challenges in testing and identifying these vulnerabilities, and related research still faces two major challenges: 1) the explosion of input space for testing, 2) the lack of effective test-guidance strategies. Therefore, in this paper, we overcome the two major challenges mentioned above, and propose a formal verification method to discover logical flaws in multi-robot swarms. Specifically, we abstract linear temporal logic constraints of the swarm and compute swarm robustness based on these constraints thus guiding fuzzing, we call this approach LiTelFuzz (Fuzzing based on Linear Temporal Logic Constraints). The core idea of LiTelFuzz is to design a metric based on behavioral constraints to assess the state of the multi-robot swarm at different moments, and guide fuzz testing based on the assessment results. Based on this idea, we overcome the two challenges of excessive test case input space and the lack of fuzzing guidance. Consequently, we implement a single attack drone fuzzing scheme and a multiple attack drones scheme based on LiTelFuzz. These are named SA-Fuzzing and MA-Fuzzing, respectively. Finally, we tested three popular swarm algorithms using LiTelFuzz with an average success rate of 87.35% for SA-Fuzzing and 91.73% for MA-Fuzzing to find vulnerabilities. The success rate and efficiency are better than the existing state-of-the-art fuzzer SWARMFLAWFINDER.
- Abstract(参考訳): マルチロボット群は、Swarmインテリジェンスを利用してタスクを協調し、様々な実践シナリオにおいてますます重要な役割を担っている。
しかし、複雑な設計のため、マルチロボットスワムシステムには論理的誤りによる脆弱性がしばしばあり、これはマルチロボットスワムの通常の操作を著しく破壊する可能性がある。
論理的脆弱性がマルチロボット群にもたらす重大なセキュリティ上の脅威にもかかわらず、これらの脆弱性をテストし識別する上ではまだ大きな課題が残っており、関連する研究は以下の2つの大きな課題に直面している。
1) 試験用入力空間の爆発
2)効果的なテストガイダンス戦略の欠如。
そこで本稿では,上記の2つの課題を克服し,複数ロボット群における論理的欠陥を発見するための形式的検証手法を提案する。
具体的には、これらの制約に基づいてSwarmの線形時間論理制約を抽象化し、これらの制約に基づいてSwarmの堅牢性を計算し、ファジングを誘導し、このアプローチをLiTelFuzz(線形時間論理制約に基づくファジング)と呼ぶ。
LiTelFuzzの中核となる考え方は、動作制約に基づいてメトリクスを設計し、異なるタイミングでマルチロボットスワムの状態を評価し、評価結果に基づいてファズテストのガイドを行うことである。
この考え方に基づいて、過剰なテストケース入力空間とファジィガイダンスの欠如という2つの課題を克服する。
その結果,LiTelFuzzをベースとした単一攻撃ドローンファジリング方式と複数攻撃ドローン方式を実装した。
これらはそれぞれSA-FuzzingとMA-Fuzzingと呼ばれている。
最後に、LiTelFuzzを使って、SA-Fuzzingで87.35%、MA-Fuzzingで91.73%の成功率で3つの一般的なSwarmアルゴリズムをテストした。
成功率と効率は、既存の最先端ファザーSWARMFLAWFINDERより優れている。
関連論文リスト
- WILT: A Multi-Turn, Memorization-Robust Inductive Logic Benchmark for LLMs [0.8883751685905831]
メモリ化に抵抗するように設計された,シンプルなマルチターン推論ベンチマークである Wason Inductive Logic Test (WILT) を紹介する。
以上の結果から,LSMはこの課題に苦しむことが明らかとなった。
これらの変動にもかかわらず、最高の性能モデルは28%の精度しか達成せず、複雑なマルチターン推論タスクにおけるLLM性能の重大なギャップを浮き彫りにしている。
論文 参考訳(メタデータ) (2024-10-14T18:29:13Z) - FFAA: Multimodal Large Language Model based Explainable Open-World Face Forgery Analysis Assistant [59.2438504610849]
FFAA: Face Forgery Analysis Assistant(MLLM)とMIDS(Multi-Awer Intelligent Decision System)について紹介する。
提案手法は,ユーザフレンドリで説明可能な結果を提供するだけでなく,従来の手法に比べて精度と堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-08-19T15:15:20Z) - High-Dimensional Fault Tolerance Testing of Highly Automated Vehicles Based on Low-Rank Models [39.139025989575686]
HAVの安全性を評価するために, フォールトインジェクション(FI)試験を実施している。
テストケースを完全にカバーするためには、さまざまな駆動シナリオと障害設定を検討する必要がある。
低ランクスムースネス正規化行列因子化フレームワークにおけるFI試験の高速化を提案する。
論文 参考訳(メタデータ) (2024-07-28T14:27:13Z) - Real-Time Anomaly Detection and Reactive Planning with Large Language Models [18.57162998677491]
例えば、大規模な言語モデル(LLM)は、インターネットスケールのデータに基づいて訓練され、ゼロショット機能を持つ。
本稿では,潜在的な異常に関する判断を安全な制御フレームワークに組み込む2段階の推論フレームワークを提案する。
これにより、モニターは、四輪車や自動運転車のような動的ロボットシステムの信頼性を向上させることができる。
論文 参考訳(メタデータ) (2024-07-11T17:59:22Z) - Multi-granular Adversarial Attacks against Black-box Neural Ranking Models [111.58315434849047]
多粒性摂動を取り入れた高品質な逆数例を作成する。
我々は,多粒体攻撃を逐次的意思決定プロセスに変換する。
本手法は,攻撃の有効性と非受容性の両方において,一般的なベースラインを超えている。
論文 参考訳(メタデータ) (2024-04-02T02:08:29Z) - Faith and Fate: Limits of Transformers on Compositionality [109.79516190693415]
3つの代表的構成課題にまたがる変圧器大言語モデルの限界について検討する。
これらのタスクは、問題をサブステップに分割し、これらのステップを正確な答えに合成する必要があります。
実験結果から,多段階合成推論を線形化部分グラフマッチングに還元することにより,トランスフォーマーLLMが構成課題を解くことが示唆された。
論文 参考訳(メタデータ) (2023-05-29T23:24:14Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - DeFuzz: Deep Learning Guided Directed Fuzzing [41.61500799890691]
本稿では,DeFuzzというソフトウェア脆弱性検出のための,ディープラーニング(DL)誘導指向ファズリングを提案する。
DeFuzzには2つの主要なスキームが含まれている。 1) 潜在的に脆弱な機能と位置(脆弱性のあるアドレス)を特定するために、トレーニング済みのDL予測モデルを使用する。
正確には、Bidirectional-LSTM (BiLSTM) を用いて注意語を識別し、その脆弱性はこれらの注意語に関連付けられている。
論文 参考訳(メタデータ) (2020-10-23T03:44:03Z) - Active Fuzzing for Testing and Securing Cyber-Physical Systems [8.228859318969082]
パケットレベルのCPSネットワーク攻撃のテストスイートを見つけるための,能動ファジィングを提案する。
私たちのソリューションの鍵は、ペイロードをサンプリングすることでモデルを反復的に更新するオンラインアクティブラーニングを使用することです。
本研究は,水浄化プラントテストベッドに実装した活性ファジィングの有効性を評価し,フロー,プレッシャ,オーバー/アンダーフロー攻撃の試験スイートを自動的に検出できることを見出した。
論文 参考訳(メタデータ) (2020-05-28T16:19:50Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z) - Hidden Cost of Randomized Smoothing [72.93630656906599]
本稿では、現在のランダム化平滑化による副作用を指摘する。
具体的には,1)スムーズな分類器の決定境界が小さくなり,クラスレベルでの精度の相違が生じること,2)学習過程における雑音増強の適用は,一貫性のない学習目的による縮小問題を必ずしも解決しない,という2つの主要なポイントを具体化し,証明する。
論文 参考訳(メタデータ) (2020-03-02T23:37:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。