論文の概要: The Cure is in the Cause: A Filesystem for Container Debloating
- arxiv url: http://arxiv.org/abs/2305.04641v3
- Date: Fri, 14 Feb 2025 08:55:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-17 13:26:31.249401
- Title: The Cure is in the Cause: A Filesystem for Container Debloating
- Title(参考訳): The Cureが原因:コンテナのデブロ化のためのファイルシステム
- Authors: Huaifeng Zhang, Philipp Leitner, Mohannad Alhanahnah, Ahmed Ali-Eldin,
- Abstract要約: トップダウンのコンテナの50%以上が60%以上肥大化しており、BAFFSはコンテナのサイズを大幅に削減している。
サーバレス機能の場合、BAFFSはコールドスタートのレイテンシを最大68%削減する。
- 参考スコア(独自算出の注目度): 3.072029094326428
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Containers have become a standard for deploying applications due to their convenience, but they often suffer from significant software bloat-unused files that inflate image sizes, increase provisioning times, and waste resources. These inefficiencies are particularly problematic in serverless and edge computing scenarios, where resources are constrained, and performance is critical. Existing debloating tools are limited in scope and effectiveness, failing to address the widespread issue of container bloat at scale. In this paper, we conduct a large-scale evaluation of container bloat, analyzing the top 20 most downloaded containers on DockerHub. We evaluate two state-of-the-art debloating tools, identify their limitations, and propose a novel solution, BAFFS, which addresses bloat at the filesystem level by introducing a flexible debloating layer that preserves the layered structure of container filesystems. The debloating layer can be organized in different ways to meet diverse requirements. Our evaluation demonstrates that over 50% of the top-downloaded containers have more than 60% bloat, and BAFFS reduces container sizes significantly while maintaining functionality. For serverless functions, BAFFS reduces cold start latency by up to 68%. Additionally, when combined with lazy-loading snapshotters, BAFFS enhances provisioning efficiency, reducing conversion times by up to 93% and provisioning times by up to 19%.
- Abstract(参考訳): コンテナはその利便性のためにアプリケーションのデプロイの標準になっていますが、多くの場合、イメージのサイズを拡大し、プロビジョニング時間を増やし、リソースを浪費する、ソフトウェアの肥大した未使用ファイルに悩まされます。
これらの非効率性は、リソースが制約されるサーバーレスとエッジコンピューティングのシナリオで特に問題となる。
既存のデ肥大化ツールはスコープと有効性に制限があり、大規模なコンテナ肥大化の問題に対処できない。
本稿では,DockerHub上で最もダウンロードされたコンテナトップ20を分析し,コンテナの肥大を大規模に評価する。
我々は2つの最先端のデブロ化ツールを評価し、それらの制限を特定し、コンテナファイルシステムの階層構造を保存するフレキシブルなデブロ化レイヤを導入し、ファイルシステムレベルで肥大化に対処する新しいソリューションであるBAFFSを提案する。
肥大化レイヤは、さまざまな要件を満たすために、さまざまな方法で組織化できます。
評価の結果,トップダウンのコンテナの50%以上が60%以上の肥大化を示し,BAFFSは機能を維持しながらコンテナのサイズを大幅に削減する。
サーバレス機能の場合、BAFFSはコールドスタートのレイテンシを最大68%削減する。
さらに、遅延ローディングスナップショットと組み合わせることで、BAFFSはプロビジョニング効率を高め、変換時間を最大93%削減し、プロビジョニング時間を最大19%削減する。
関連論文リスト
- The Hidden Bloat in Machine Learning Systems [0.22099217573031676]
ソフトウェア肥大(Software bloat)とは、実行時にソフトウェアが使わないコードや機能を指す。
機械学習(ML)システムにとって、肥大は技術的負債に対する大きな貢献者であり、パフォーマンスとリソースの浪費を減少させる。
我々は,共有ライブラリを解析することにより,MLフレームワークの肥大を識別・除去する新しいツールであるNegativa-MLを提案する。
論文 参考訳(メタデータ) (2025-03-18T13:04:25Z) - QuantCache: Adaptive Importance-Guided Quantization with Hierarchical Latent and Layer Caching for Video Generation [84.91431271257437]
Diffusion Transformers (DiTs) はビデオ生成において支配的なアーキテクチャとして登場した。
DiTには、計算コストやメモリコストの増大など、大きな欠点がある。
我々は,新しいトレーニングフリー推論アクセラレーションフレームワークQuantCacheを提案する。
論文 参考訳(メタデータ) (2025-03-09T10:31:51Z) - TEEMATE: Fast and Efficient Confidential Container using Shared Enclave [17.032423912089854]
ホストシステム上でエンクレーブを利用する新しいアプローチであるTeeMateを紹介した。
我々は、TeeMateが従来の機密コンテナ上に構築されたアプリケーションに比べて、少なくとも4.5倍のレイテンシと2.8倍のメモリ使用率を達成することを示す。
論文 参考訳(メタデータ) (2024-11-18T09:50:20Z) - I Know What You Sync: Covert and Side Channel Attacks on File Systems via syncfs [5.556839719025154]
論理的分離を断ち切るファイルシステムを通して、新しいタイプのサイドチャネルを示す。
ファイルシステムはオペレーティングシステムにおいて重要な役割を担い、アプリケーション層と物理ストレージデバイスの間のすべてのI/Oアクティビティを管理する。
我々はLinuxとAndroidの両方をターゲットとする3つのサイドチャネル攻撃を構築した。
論文 参考訳(メタデータ) (2024-11-16T20:40:08Z) - BitStack: Any-Size Compression of Large Language Models in Variable Memory Environments [53.71158537264695]
大規模言語モデル(LLM)は、多くのアプリケーションに革命をもたらしたが、ローカルデバイスにおけるメモリ制限により、その展開は依然として困難である。
textbfBitStackは,メモリ使用量とモデル性能のトレードオフを可能にする,新しいトレーニング不要な重み圧縮手法である。
論文 参考訳(メタデータ) (2024-10-31T13:26:11Z) - Breaking the Memory Barrier: Near Infinite Batch Size Scaling for Contrastive Loss [59.835032408496545]
本稿では, コントラスト損失計算を任意の小ブロックに分割するタイルベースの戦略を提案する。
分散システムの階層構造を活用するためのマルチレベルタイリング戦略も導入する。
SOTAメモリ効率のソリューションと比較すると、同等の速度を維持しながら、メモリの2桁の削減を実現している。
論文 参考訳(メタデータ) (2024-10-22T17:59:30Z) - SafeBPF: Hardware-assisted Defense-in-depth for eBPF Kernel Extensions [1.0499611180329806]
SafeBPFは,eBPFプログラムをカーネルの他の部分から分離し,メモリ安全性上の脆弱性の悪用を防止する汎用設計である。
SafeBPFは,所望のセキュリティ特性を達成しつつ,マクロベンチマーク上で最大4%のオーバーヘッドを発生させることを示す。
論文 参考訳(メタデータ) (2024-09-11T13:58:51Z) - The Impact of SBOM Generators on Vulnerability Assessment in Python: A Comparison and a Novel Approach [56.4040698609393]
Software Bill of Materials (SBOM) は、ソフトウェア構成における透明性と妥当性を高めるツールとして推奨されている。
現在のSBOM生成ツールは、コンポーネントや依存関係を識別する際の不正確さに悩まされることが多い。
提案するPIP-sbomは,その欠点に対処する新しいピップインスパイアされたソリューションである。
論文 参考訳(メタデータ) (2024-09-10T10:12:37Z) - Automatic Jailbreaking of the Text-to-Image Generative AI Systems [76.9697122883554]
本稿では,ChatGPT,Copilot,Geminiなどの商用T2I生成システムの安全性について,ナイーブプロンプトによる著作権侵害について検討する。
安全ガードをバイパスするプロンプトを生成するT2I生成システムに対して,より強力な自動脱獄パイプラインを提案する。
当社のフレームワークは,ChatGPTを11.0%のブロックレートでジェイルブレイクし,その76%で著作権コンテンツを生成する。
論文 参考訳(メタデータ) (2024-05-26T13:32:24Z) - LUCID: A Framework for Reducing False Positives and Inconsistencies Among Container Scanning Tools [0.0]
本稿では,複数のスキャンツールによって提供される偽陽性や不整合を低減できるLUCIDというフレームワークを提案する。
その結果,我々のフレームワークは不整合を70%削減できることがわかった。
また、異なる重大度レベルを84%の精度で分類し、予測できる動的分類コンポーネントを作成します。
論文 参考訳(メタデータ) (2024-05-11T16:58:28Z) - BESA: Pruning Large Language Models with Blockwise Parameter-Efficient Sparsity Allocation [54.28841287750586]
大規模言語モデル(LLM)は、テキスト要約、テキスト質問応答など、様々なタスクにおいて優れたパフォーマンスを示してきた。
SparseGPTやWandaといった既存のソリューションは、重み付けによってこの問題を緩和しようと試みている。
本稿では,ブロックワイド再構成損失を適用して,ブロックワイドパラメータ効率の空間割当(BESA)と呼ばれる新しいLCMプルーニング手法を提案する。
論文 参考訳(メタデータ) (2024-02-18T12:44:15Z) - Improving Program Debloating with 1-DU Chain Minimality [47.73151075716047]
RLDebloatDUは,抽象構文木内の1-DU鎖の最小性を利用した,革新的なデブロ手法である。
当社のアプローチでは,プログラムデータに依存しているため,アグレッシブなコード削減とプログラムセマンティクスの保存のバランスが保たれている。
論文 参考訳(メタデータ) (2024-02-01T02:00:32Z) - Exploiting Kubernetes' Image Pull Implementation to Deny Node Availability [0.0]
アプリケーションプログラミングインタフェース(API)とK8のランタイムインターフェース間のインタラクションは、十分に研究されていない。
CRI-APIはコンテナランタイムを抽象化し、各イメージのダウンロードとともにコンテナの生成とライフサイクルを管理する。
このような攻撃は、最大95%の平均CPU使用量を生成し、新しいコンテナイメージのダウンロードを防止し、潜在的に無制限な時間でI/Oおよびネットワーク使用量を増やすことができることを示す。
論文 参考訳(メタデータ) (2024-01-19T09:49:53Z) - A Broad Comparative Evaluation of Software Debloating Tools [3.0913520619484287]
ソフトウェアデ肥大化ツールは、bloatと呼ばれる不要なコードを削除することで、プログラムのセキュリティとパフォーマンスを改善しようとしている。
筆者らは,10年間のデブロ化文学と,デブロ化生態系に関する知識を分類するために現在,商業開発中のいくつかのツールを調査した。
評価は、20のベンチマークプログラム、12のパフォーマンス、セキュリティ、正当性の測定ツールに基づいて行われた。
論文 参考訳(メタデータ) (2023-12-20T18:53:18Z) - Charliecloud's layer-free, Git-based container build cache [0.0]
このイメージは、機械可読なレシピで命令を解釈することで構築されます。
標準アプローチは多層結合であり、層間の差異をtarアーカイブとしてエンコードする。
私たちの実験では、これはビルド時間とディスク使用量の両方で階層化されたキャッシュと同じようなパフォーマンスを示しており、多くの命令のレシピにかなりの利点があります。
論文 参考訳(メタデータ) (2023-08-31T23:05:16Z) - On the Security Blind Spots of Software Composition Analysis [46.1389163921338]
Mavenリポジトリで脆弱性のあるクローンを検出するための新しいアプローチを提案する。
Maven Centralから53万以上の潜在的な脆弱性のあるクローンを検索します。
検出された727個の脆弱なクローンを検出し、それぞれに検証可能な脆弱性証明プロジェクトを合成する。
論文 参考訳(メタデータ) (2023-06-08T20:14:46Z) - Online Continual Learning Without the Storage Constraint [67.66235695269839]
我々は、kNN分類器を固定された事前訓練された特徴抽出器とともに継続的に更新する簡単なアルゴリズムを提案する。
高速に変化するストリームに適応し、安定性のギャップをゼロにし、小さな計算予算内で動作し、機能のみを格納することで、ストレージ要件を低くすることができる。
2つの大規模オンライン連続学習データセットにおいて、既存の手法を20%以上の精度で上回ることができる。
論文 参考訳(メタデータ) (2023-05-16T08:03:07Z) - SeiT: Storage-Efficient Vision Training with Tokens Using 1% of Pixel
Storage [52.317406324182215]
大規模データセットに対する視覚分類器の記憶効率向上のための学習手法を提案する。
私たちのトークンストレージは、JPEG圧縮されたオリジナルの生ピクセルの1%しか必要としない。
ImageNet-1kによる実験結果から,本手法は,他のストレージ効率のトレーニング手法よりも大幅に優れており,大きなギャップがあることがわかった。
論文 参考訳(メタデータ) (2023-03-20T13:55:35Z) - Rediscovering Hashed Random Projections for Efficient Quantization of
Contextualized Sentence Embeddings [113.38884267189871]
エッジデバイス上でのトレーニングと推論は、しばしば計算上の制限のために効率的なセットアップを必要とする。
データ表現の事前計算とサーバへのキャッシュにより、エッジデバイスの広範な計算が軽減される。
ランダムな超平面射影を用いた単純かつ効果的な手法を提案する。
組込みは, 浮動小数点の94%-99%を保持できる様々な英語およびドイツ語の文分類タスクにおいて, トレーニングモデルに有効であることを示す。
論文 参考訳(メタデータ) (2023-03-13T10:53:00Z) - BAFFLE: A Baseline of Backpropagation-Free Federated Learning [71.09425114547055]
フェデレートラーニング(FL)は、分散クライアントがローカルデータを共有せずにサーバモデルをまとめて訓練する一般的な原則である。
我々は、バックプロパゲーションを複数のフォワードプロセスに置き換えて勾配を推定する、BAFFLEと呼ばれる、バックプロパゲーションフリーなフェデレーション学習を開発する。
BAFFLEは、1)メモリ効率が高く、アップロード帯域幅に適しており、2)推論のみのハードウェア最適化とモデル量子化やプルーニングと互換性があり、3)信頼できる実行環境に適している。
論文 参考訳(メタデータ) (2023-01-28T13:34:36Z) - Machine Learning Systems are Bloated and Vulnerable [2.7023370929727277]
ソフトウェアシステムの肥大を解析するフレームワークであるMMLBを開発した。
MMLBはコンテナレベルとパッケージレベルの両方の肥大度を測定します。
肥大化が機械学習コンテナのサイズの最大80%を占めることを示している。
論文 参考訳(メタデータ) (2022-12-16T10:34:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。