論文の概要: BLAFS: A Bloat Aware File System
- arxiv url: http://arxiv.org/abs/2305.04641v1
- Date: Mon, 8 May 2023 11:41:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 11:52:53.698617
- Title: BLAFS: A Bloat Aware File System
- Title(参考訳): BLAFS:Bloat Awareファイルシステム
- Authors: Huaifeng Zhang, Mohannad Alhanahnah, Ahmed Ali-Eldin
- Abstract要約: コンテナ用のBLoat-Aware-fileシステムであるBLAFSを紹介する。
BLAFSは、クラウドおよびエッジシステムのデブロ安全性を保証する。
- 参考スコア(独自算出の注目度): 2.3476033905954687
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While there has been exponential improvements in hardware performance over
the years, software performance has lagged behind. The performance-gap is
caused by software inefficiencies, many of which are caused by software bloat.
Software bloat occurs due to the ever increasing, mostly unused, features and
dependencies in a software. Bloat exists in all layers of software, from the
operating system, to the application, resulting in computing resource wastage.
The problem is exacerbated in both cloud and edge setting as the number of
applications running increase. To remove software bloat, multiple debloating
tools have been proposed in the literature. However, these tools do not provide
safety guarantees on the debloated software, with some files needed during
run-time removed. In this paper, We introduce BLAFS, a BLoat-Aware-file system
for containers. BLAFS guarantees debloating safety for both cloud and edge
systems. BLAFS is implemented on top of the Overlay file-system, allowing for
file-system layer sharing across the containers. We compare BLAFS to two
state-of-the-art debloating tools (Cimplifier and Dockerslim), and two
state-of-the-art lazy-loading container snap-shotters for edge systems
(Starlight and eStargz). Our evaluation of real-world containers shows BLAFS
reduces container sizes by up to 97% of the original size, while maintaining
the safety of the containers when other debloating tools fail. We also evaluate
BLAFS's performance in edge settings. It can reduce the container provisioning
time by up to 90% providing comparable bandwidth reductions to lazy-loading
snap-shotters, while removing 97% of the vulnerabilities, and up to 97% less
space on the edge.
- Abstract(参考訳): 長年にわたってハードウェア性能は指数関数的に改善されてきたが、ソフトウェア性能は遅れている。
パフォーマンスギャップはソフトウェア非効率によって引き起こされ、その多くがソフトウェア肥大によって引き起こされる。
ソフトウェアの肥大化は、ソフトウェアにおける機能や依存関係の増大によって起こる。
Bloatはオペレーティングシステムからアプリケーションまで,ソフトウェアのすべてのレイヤに存在するため,コンピュータリソースの浪費が発生します。
この問題は、アプリケーションの数が増えるにつれて、クラウドとエッジの両方で悪化する。
ソフトウェアを膨らませる部分を取り除くために,複数のツールが文献に提案されている。
しかし、これらのツールは削除されたソフトウェアに安全性の保証を提供していない。
本稿では,コンテナ用のBLoat-Aware-fileシステムであるBLAFSを紹介する。
BLAFSは、クラウドおよびエッジシステムのデブロ安全性を保証する。
BLAFSはOverlayファイルシステム上に実装されており、コンテナ間でファイルシステム層を共有することができる。
BLAFSを2つの最先端デブロツール(CimplifierとDockerslim)と、エッジシステム(StarlightとeStargz)用の2つの最先端遅延ローディングコンテナスナップショットと比較する。
実世界のコンテナを評価したところ、BLAFSはコンテナのサイズを元のサイズの97%まで削減し、他のデブロッキングツールが失敗してもコンテナの安全性を維持します。
また,BLAFSの性能をエッジ設定で評価する。
コンテナのプロビジョニング時間を最大90%削減し、遅延ローディングスナップシュータに同等の帯域幅の削減を提供すると同時に、脆弱性の97%を除去し、エッジのスペースを最大97%削減することができる。
関連論文リスト
- TEEMATE: Fast and Efficient Confidential Container using Shared Enclave [17.032423912089854]
ホストシステム上でエンクレーブを利用する新しいアプローチであるTeeMateを紹介した。
我々は、TeeMateが従来の機密コンテナ上に構築されたアプリケーションに比べて、少なくとも4.5倍のレイテンシと2.8倍のメモリ使用率を達成することを示す。
論文 参考訳(メタデータ) (2024-11-18T09:50:20Z) - BitStack: Any-Size Compression of Large Language Models in Variable Memory Environments [53.71158537264695]
大規模言語モデル(LLM)は、多くのアプリケーションに革命をもたらしたが、ローカルデバイスにおけるメモリ制限により、その展開は依然として困難である。
textbfBitStackは,メモリ使用量とモデル性能のトレードオフを可能にする,新しいトレーニング不要な重み圧縮手法である。
論文 参考訳(メタデータ) (2024-10-31T13:26:11Z) - Q-GaLore: Quantized GaLore with INT4 Projection and Layer-Adaptive Low-Rank Gradients [86.40635601953446]
量子化と低ランク投影を組み合わせることでメモリ使用量を大幅に削減する新しい手法であるQ-Galoreを導入する。
本稿では,Q-Galoreがメモリ効率に優れた競合性能を実現することを実証する。
論文 参考訳(メタデータ) (2024-07-11T08:42:58Z) - LUCID: A Framework for Reducing False Positives and Inconsistencies Among Container Scanning Tools [0.0]
本稿では,複数のスキャンツールによって提供される偽陽性や不整合を低減できるLUCIDというフレームワークを提案する。
その結果,我々のフレームワークは不整合を70%削減できることがわかった。
また、異なる重大度レベルを84%の精度で分類し、予測できる動的分類コンポーネントを作成します。
論文 参考訳(メタデータ) (2024-05-11T16:58:28Z) - Exploiting Kubernetes' Image Pull Implementation to Deny Node Availability [0.0]
アプリケーションプログラミングインタフェース(API)とK8のランタイムインターフェース間のインタラクションは、十分に研究されていない。
CRI-APIはコンテナランタイムを抽象化し、各イメージのダウンロードとともにコンテナの生成とライフサイクルを管理する。
このような攻撃は、最大95%の平均CPU使用量を生成し、新しいコンテナイメージのダウンロードを防止し、潜在的に無制限な時間でI/Oおよびネットワーク使用量を増やすことができることを示す。
論文 参考訳(メタデータ) (2024-01-19T09:49:53Z) - Charliecloud's layer-free, Git-based container build cache [0.0]
このイメージは、機械可読なレシピで命令を解釈することで構築されます。
標準アプローチは多層結合であり、層間の差異をtarアーカイブとしてエンコードする。
私たちの実験では、これはビルド時間とディスク使用量の両方で階層化されたキャッシュと同じようなパフォーマンスを示しており、多くの命令のレシピにかなりの利点があります。
論文 参考訳(メタデータ) (2023-08-31T23:05:16Z) - Online Continual Learning Without the Storage Constraint [67.66235695269839]
我々は、kNN分類器を固定された事前訓練された特徴抽出器とともに継続的に更新する簡単なアルゴリズムを提案する。
高速に変化するストリームに適応し、安定性のギャップをゼロにし、小さな計算予算内で動作し、機能のみを格納することで、ストレージ要件を低くすることができる。
2つの大規模オンライン連続学習データセットにおいて、既存の手法を20%以上の精度で上回ることができる。
論文 参考訳(メタデータ) (2023-05-16T08:03:07Z) - SeiT: Storage-Efficient Vision Training with Tokens Using 1% of Pixel
Storage [52.317406324182215]
大規模データセットに対する視覚分類器の記憶効率向上のための学習手法を提案する。
私たちのトークンストレージは、JPEG圧縮されたオリジナルの生ピクセルの1%しか必要としない。
ImageNet-1kによる実験結果から,本手法は,他のストレージ効率のトレーニング手法よりも大幅に優れており,大きなギャップがあることがわかった。
論文 参考訳(メタデータ) (2023-03-20T13:55:35Z) - Rediscovering Hashed Random Projections for Efficient Quantization of
Contextualized Sentence Embeddings [113.38884267189871]
エッジデバイス上でのトレーニングと推論は、しばしば計算上の制限のために効率的なセットアップを必要とする。
データ表現の事前計算とサーバへのキャッシュにより、エッジデバイスの広範な計算が軽減される。
ランダムな超平面射影を用いた単純かつ効果的な手法を提案する。
組込みは, 浮動小数点の94%-99%を保持できる様々な英語およびドイツ語の文分類タスクにおいて, トレーニングモデルに有効であることを示す。
論文 参考訳(メタデータ) (2023-03-13T10:53:00Z) - BAFFLE: A Baseline of Backpropagation-Free Federated Learning [71.09425114547055]
フェデレートラーニング(FL)は、分散クライアントがローカルデータを共有せずにサーバモデルをまとめて訓練する一般的な原則である。
我々は、バックプロパゲーションを複数のフォワードプロセスに置き換えて勾配を推定する、BAFFLEと呼ばれる、バックプロパゲーションフリーなフェデレーション学習を開発する。
BAFFLEは、1)メモリ効率が高く、アップロード帯域幅に適しており、2)推論のみのハードウェア最適化とモデル量子化やプルーニングと互換性があり、3)信頼できる実行環境に適している。
論文 参考訳(メタデータ) (2023-01-28T13:34:36Z) - Machine Learning Systems are Bloated and Vulnerable [2.7023370929727277]
ソフトウェアシステムの肥大を解析するフレームワークであるMMLBを開発した。
MMLBはコンテナレベルとパッケージレベルの両方の肥大度を測定します。
肥大化が機械学習コンテナのサイズの最大80%を占めることを示している。
論文 参考訳(メタデータ) (2022-12-16T10:34:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。