論文の概要: When High-Performance Computing Meets Software Testing: Distributed Fuzzing using MPI
- arxiv url: http://arxiv.org/abs/2512.01617v1
- Date: Mon, 01 Dec 2025 12:38:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.849576
- Title: When High-Performance Computing Meets Software Testing: Distributed Fuzzing using MPI
- Title(参考訳): ハイパフォーマンスコンピューティングがソフトウェアテストに遭遇する時 - MPIを使用した分散ファズリング
- Authors: Pierciro Caliandro, Matteo Ciccaglione, Alessandro Pellegrini,
- Abstract要約: 本稿では,分散ファジィフレームワークへのMPIベースの同期技術の統合について検討する。
軽量なMPIプリミティブを利用することで、通信遅延の低減を実現し、より効率的なデータ交換を容易にする。
全体として、MPIベースの同期アプローチの採用は、分散ファジテストのスケーラビリティと有効性を大幅に向上させる有望な可能性を示している。
- 参考スコア(独自算出の注目度): 39.7936151583542
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper explores the integration of MPI-based synchronization techniques into distributed fuzzing frameworks, highlighting possible substantial performance improvements compared to traditional filesystem-based synchronization methods. By employing lightweight MPI primitives, reductions in communication latency are achieved, facilitating more efficient data exchanges across distributed fuzzing nodes. Experimental results obtained over standard benchmarks demonstrate enhanced coverage progression from the early stages of the fuzzing process, which could be beneficial if fuzzing is employed in CI/CD pipelines at any stage of software development. Furthermore, the coordinated exchange of input corpora among clusters of fuzzers effectively addresses coverage stagnation, enabling a sustained exploration of complex and deep execution paths. Overall, the adoption of MPI-based synchronization approaches shows promising potential for significantly enhancing the scalability and efficacy of distributed fuzz testing.
- Abstract(参考訳): 本稿では,分散ファジィフレームワークへのMPIベースの同期技術の統合について検討し,従来のファイルシステムベースの同期手法と比較して,大幅な性能向上の可能性を明らかにする。
軽量なMPIプリミティブを利用することで、通信遅延の低減を実現し、分散ファジィノード間のデータ交換をより効率的にする。
標準的なベンチマークで得られた実験結果は、ファジィングプロセスの初期段階から拡張されたカバレッジの進展を示しており、ソフトウェア開発のどの段階でもファジィングがCI/CDパイプラインに採用されれば有益である。
さらに、ファジィのクラスタ間の入力コーパスの協調交換は、カバレッジの停滞を効果的に解決し、複雑な実行経路と深い実行経路の持続的な探索を可能にする。
全体として、MPIベースの同期アプローチの採用は、分散ファジテストのスケーラビリティと有効性を大幅に向上させる有望な可能性を示している。
関連論文リスト
- Transformer-Driven Neural Beamforming with Imperfect CSI in Urban Macro Wireless Channels [27.445841110148674]
本研究では,不完全なチャネル状態情報下でのビーム形成重みを生成するために,深層的に分離可能な畳み込みと変圧器を統合した新しい教師なしディープラーニングフレームワークを提案する。
主な目標は、信頼性の高い通信を確保しながら、総和レートを最大化することでスループットを向上させることである。
論文 参考訳(メタデータ) (2025-04-15T23:41:24Z) - Task-Oriented Feature Compression for Multimodal Understanding via Device-Edge Co-Inference [54.53508601749513]
本稿では,マルチモーダル理解のためのタスク指向特徴圧縮(TOFC)手法を提案する。
圧縮効率を向上させるために、視覚特徴の特性に基づいて複数のエントロピーモデルを適応的に選択する。
その結果,TOFCはデータ転送オーバーヘッドを最大52%削減し,システム遅延を最大63%削減できることがわかった。
論文 参考訳(メタデータ) (2025-03-17T08:37:22Z) - Communication-Efficient Federated Learning by Quantized Variance Reduction for Heterogeneous Wireless Edge Networks [55.467288506826755]
フェデレーテッド・ラーニング(FL)は、無線エッジネットワークにおけるローカル・プライバシ・アウェア・コラボレーティブ・モデルトレーニングの有効なソリューションとして認識されている。
既存の通信効率の高いFLアルゴリズムは、デバイス間の大きなばらつきを低減できない。
本稿では,高度分散還元方式に依存する新しい通信効率FLアルゴリズムであるFedQVRを提案する。
論文 参考訳(メタデータ) (2025-01-20T04:26:21Z) - Heterogeneous Multi-Agent Reinforcement Learning for Distributed Channel Access in WLANs [47.600901884970845]
本稿では,マルチエージェント強化学習(MARL)を用いて,無線ローカルネットワークにおける分散チャネルアクセスに対処する。
特に、エージェントがモデルトレーニングに価値ベースまたはポリシーベースの強化学習アルゴリズムを不均一に採用する、より実践的なケースについて考察する。
我々は、分散実行パラダイムを用いた集中型トレーニングを採用し、異種エージェントの協調を可能にする、異種MARLトレーニングフレームワークQPMIXを提案する。
論文 参考訳(メタデータ) (2024-12-18T13:50:31Z) - HFedMS: Heterogeneous Federated Learning with Memorable Data Semantics
in Industrial Metaverse [49.1501082763252]
本稿では,新しい産業メタバースに実用FLを取り入れたHFEDMSを提案する。
動的グルーピングとトレーニングモード変換によってデータの均一性を低下させる。
そして、圧縮された履歴データセマンティクスを融合することで、忘れられた知識を補う。
ストリームされた非I.d.FEMNISTデータセットに対して,368個のシミュレーションデバイスを用いて実験を行った。
論文 参考訳(メタデータ) (2022-11-07T04:33:24Z) - Transformer-based Context Condensation for Boosting Feature Pyramids in
Object Detection [77.50110439560152]
現在の物体検出器は、通常マルチレベル特徴融合(MFF)のための特徴ピラミッド(FP)モジュールを持つ。
我々は,既存のFPがより優れたMFF結果を提供するのに役立つ,新しい,効率的なコンテキストモデリング機構を提案する。
特に,包括的文脈を2種類の表現に分解・凝縮して高効率化を図っている。
論文 参考訳(メタデータ) (2022-07-14T01:45:03Z) - Communication-Efficient Federated Learning With Data and Client Heterogeneity [31.59453616577858]
Federated Learning (FL)は、機械学習モデルの大規模分散トレーニングを可能にする。
FLを大規模に実行するには、本質的に実践的な課題が伴う。
従来のフェデレーション平均化(FedAvg)アルゴリズムの最初の変種を示す。
論文 参考訳(メタデータ) (2022-06-20T22:39:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。