論文の概要: Investigating the Impact of Isolation on Synchronized Benchmarks
- arxiv url: http://arxiv.org/abs/2511.03533v1
- Date: Wed, 05 Nov 2025 15:05:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.456642
- Title: Investigating the Impact of Isolation on Synchronized Benchmarks
- Title(参考訳): 同期ベンチマークにおける分離の影響の検討
- Authors: Nils Japke, Furat Hamdan, Diana Baumann, David Bermbach,
- Abstract要約: この研究は、cgroupsとCPUピンニング、Dockerコンテナ、Firecracker MicroVMの3つの戦略を評価する。
ノイズ発生器とデュエット設定を併用してベンチマークを実行することにより,全ての戦略を未分離のベースライン実験と比較する。
結果は、Dockerコンテナを使った実験を除いて、プロセス分離が一般的に偽陽性を下げたことを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Benchmarking in cloud environments suffers from performance variability from multi-tenant resource contention. Duet benchmarking mitigates this by running two workload versions concurrently on the same VM, exposing them to identical external interference. However, intra-VM contention between synchronized workloads necessitates additional isolation mechanisms. This work evaluates three such strategies: cgroups and CPU pinning, Docker containers, and Firecracker MicroVMs. We compare all strategies with an unisolated baseline experiment, by running benchmarks with a duet setup alongside a noise generator. This noise generator "steals" compute resources to degrade performance measurements. All experiments showed different latency distributions while under the effects of noise generation, but results show that process isolation generally lowered false positives, except for our experiments with Docker containers. Even though Docker containers rely internally on cgroups and CPU pinning, they were more susceptible to performance degradation due to noise influence. Therefore, we recommend to use process isolation for synchronized workloads, with the exception of Docker containers.
- Abstract(参考訳): クラウド環境でのベンチマークは、マルチテナントリソース競合によるパフォーマンスの変動に悩まされる。
ベンチマークにより、同じVM上で2つのワークロードバージョンを同時に実行し、それらが同じ外部干渉にさらされることによって、これを緩和する。
しかし、同期ワークロード間のVM内競合は、追加の分離メカニズムを必要とする。
この研究は、cgroupsとCPUピンニング、Dockerコンテナ、Firecracker MicroVMの3つの戦略を評価する。
ノイズ発生器とデュエット設定を併用してベンチマークを実行することにより,全ての戦略を未分離のベースライン実験と比較する。
このノイズ発生器は、性能測定を劣化させるために計算資源を「ステルス」する。
すべての実験は、ノイズ発生の影響下で異なるレイテンシ分布を示したが、結果は、Dockerコンテナを使った実験を除いて、プロセス分離が一般的に偽陽性を下げたことを示している。
DockerコンテナはcgroupやCPUのピンニングに内部的に依存しているが、ノイズの影響によるパフォーマンス劣化の影響を受けやすい。
したがって、Dockerコンテナを除いて、同期ワークロードにプロセス分離を使用することを推奨します。
関連論文リスト
- Echo: Decoupling Inference and Training for Large-Scale RL Alignment on Heterogeneous Swarms [4.127488674019288]
大規模言語モデルのポストトレーニングは、同じGPUクラスタ上でトラジェクトリサンプリングとポリシ最適化を併用する。
ヘテロジニアスな"推論"と"トレーニング"スワムにまたがって、これらの2つのフェーズをきれいに分離するRLシステムであるEchoを紹介します。
論文 参考訳(メタデータ) (2025-08-07T13:37:04Z) - Automatically Identify and Rectify: Robust Deep Contrastive Multi-view Clustering in Noisy Scenarios [76.02688769599686]
本稿では,AIRMVCと呼ばれるノイズデータの自動識別と修正のための新しいマルチビュークラスタリングフレームワークを提案する。
具体的には,GMMを用いて雑音識別を異常識別問題として再構成する。
次に,同定結果に基づいて,ノイズデータの悪影響を軽減するためのハイブリッド補正戦略を設計する。
論文 参考訳(メタデータ) (2025-05-27T16:16:54Z) - Bencher: Simple and Reproducible Benchmarking for Black-Box Optimization [5.703483582960509]
Bencherはブラックボックス最適化のためのモジュラーベンチマークフレームワークである。
各ベンチマークは、独自の仮想Python環境で分離され、統一されたバージョンに依存しないリモートプロシージャコール(RPC)インターフェースを介してアクセスされる。
BencherはローカルまたはリモートでDocker経由で、あるいはSingularity経由で高性能なコンピューティングクラスタにデプロイできる。
論文 参考訳(メタデータ) (2025-05-27T15:18:58Z) - AsyncDiff: Parallelizing Diffusion Models by Asynchronous Denoising [49.785626309848276]
AsyncDiffは、複数のデバイスにまたがるモデル並列化を可能にする、普遍的でプラグアンドプレイのアクセラレーションスキームである。
安定拡散 v2.1 では、AsyncDiff は2.7倍の速度アップと4.0倍のスピードアップを実現し、CLIPスコアの 0.38 をわずかに削減した。
我々の実験は、AsyncDiffがビデオ拡散モデルに容易に適用でき、性能を向上できることを示した。
論文 参考訳(メタデータ) (2024-06-11T03:09:37Z) - BurstAttention: An Efficient Distributed Attention Framework for Extremely Long Sequences [96.74779792715819]
本稿では,BurstAttention'という分散アテンションフレームワークを提案し,メモリアクセスと通信操作を最適化する。
異なる長さ設定下での実験結果は、BurstAttentionが長いシーケンスを処理する上で大きな利点があることを示している。
論文 参考訳(メタデータ) (2024-03-14T12:51:58Z) - Towards Robust Few-shot Point Cloud Semantic Segmentation [57.075074484313]
ショットポイントのクラウドセマンティックセグメンテーションは、少数のサポートセットのサンプルだけで、新しい見えないクラスに迅速に適応するようにモデルをトレーニングすることを目的としている。
本稿では,識別的特徴表現を学習するためのコンポーネントレベルクリーンノイズ分離(CCNS)表現学習を提案する。
また,MDNS(Multi-scale Degree-based Noise Suppression)方式を提案する。
論文 参考訳(メタデータ) (2023-09-20T11:40:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。