論文の概要: Machine Learning Containers are Bloated and Vulnerable
- arxiv url: http://arxiv.org/abs/2212.09437v1
- Date: Fri, 16 Dec 2022 10:34:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 18:53:16.870465
- Title: Machine Learning Containers are Bloated and Vulnerable
- Title(参考訳): 機械学習のコンテナは肥大し、脆弱である
- Authors: Huaifeng Zhang, Fahmi Abdulqadir Ahmed, Dyako Fatih, Akayou Kitessa,
Mohannad Alhanahnah, Philipp Leitner, Ahmed Ali-Eldin
- Abstract要約: 機械学習コンテナの肥大を解析するフレームワークであるMMLBを開発した。
我々のツールは肥大の原因を定量化し、それらを除去する。
公式のPytorchとNVIDIAのコンテナレジストリから15の機械学習コンテナを調査した。
- 参考スコア(独自算出の注目度): 3.9119172498051964
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Today's software is bloated leading to significant resource wastage. This
bloat is prevalent across the entire software stack, from the operating system,
all the way to software backends, frontends, and web-pages. In this paper, we
study how prevalent bloat is in machine learning containers. We develop MMLB, a
framework to analyze bloat in machine learning containers, measuring the amount
of bloat that exists on the container and package levels. Our tool quantifies
the sources of bloat and removes them. We integrate our tool with vulnerability
analysis tools to measure how bloat affects container vulnerabilities. We
experimentally study 15 machine learning containers from the official
Tensorflow, Pytorch, and NVIDIA container registries under different tasks,
(i.e., training, tuning, and serving). Our findings show that machine learning
containers contain bloat encompassing up to 80\% of the container size. We find
that debloating machine learning containers speeds provisioning times by up to
$3.7\times$ and removes up to 98\% of all vulnerabilities detected by
vulnerability analysis tools such as Grype. Finally, we relate our results to
the larger discussion about technical debt in machine learning systems.
- Abstract(参考訳): 今日のソフトウェアは肥大し、リソースの浪費に繋がる。
この肥大化は、オペレーティングシステムからソフトウェアバックエンド、フロントエンド、Webページに至るまで、ソフトウェアスタック全体に広まっています。
本稿では,機械学習コンテナにおける肥大度について検討する。
我々は機械学習コンテナの肥大化を分析するフレームワークであるMMLBを開発し、コンテナとパッケージレベルに存在する肥大化の量を測定する。
私たちのツールは、膨れの源を定量化し、取り除きます。
ツールと脆弱性分析ツールを統合して、肥大化がコンテナの脆弱性に与える影響を測定します。
我々は、公式のTensorflow、Pytorch、NVIDIAコンテナレジストリから、さまざまなタスク(トレーニング、チューニング、サービスなど)で15の機械学習コンテナを実験的に調査した。
以上の結果から,機械学習コンテナはコンテナサイズの最大80%の肥大を包含していることがわかった。
また、Grypeのような脆弱性分析ツールによって検出されたすべての脆弱性の98パーセントを削除しています。
最後に、機械学習システムにおける技術的負債に関するより大きな議論と結果を関連付ける。
関連論文リスト
- Green AI: A Preliminary Empirical Study on Energy Consumption in DL
Models Across Different Runtime Infrastructures [56.200335252600354]
トレーニング済みのモデルを、ネイティブな開発環境とは異なる環境にデプロイするのは、一般的なプラクティスです。
これにより、インフラを含むONNXや標準フォーマットとして機能するONNXなどの交換フォーマットが導入された。
論文 参考訳(メタデータ) (2024-02-21T09:18:44Z) - Jup2Kub: algorithms and a system to translate a Jupyter Notebook
pipeline to a fault tolerant distributed Kubernetes deployment [0.9790236766474201]
科学は計算、データ操作、時には科学的データ分析のための可視化ステップを促進する。
Jupyterノートブックは、より大きなデータセットでスケールするのに苦労し、耐障害性がなく、基盤となるツールやパッケージの安定性に大きく依存している。
Jup2KupはJupyterノートブックから分散された高性能環境に変換し、フォールトトレランスを向上させる。
論文 参考訳(メタデータ) (2023-11-21T02:54:06Z) - FusionAI: Decentralized Training and Deploying LLMs with Massive
Consumer-Level GPUs [57.12856172329322]
我々は、巨大な未使用のコンシューマレベルのGPUをアンロックする分散システムを構想する。
このシステムは、CPUとGPUメモリの制限、ネットワーク帯域幅の低さ、ピアとデバイスの多様性など、重要な課題に直面している。
論文 参考訳(メタデータ) (2023-09-03T13:27:56Z) - In Situ Framework for Coupling Simulation and Machine Learning with
Application to CFD [51.04126395480625]
近年、流体力学計算を容易にする機械学習(ML)の多くの成功例が報告されている。
シミュレーションが大きくなるにつれて、従来のオフライン学習のための新しいトレーニングデータセットの生成は、I/Oとストレージのボトルネックを生み出します。
この作業は、この結合を単純化し、異種クラスタでのその場トレーニングと推論を可能にするソリューションを提供する。
論文 参考訳(メタデータ) (2023-06-22T14:07:54Z) - BLAFS: A Bloat Aware File System [2.3476033905954687]
コンテナ用のBLoat-Aware-fileシステムであるBLAFSを紹介する。
BLAFSは、クラウドおよびエッジシステムのデブロ安全性を保証する。
論文 参考訳(メタデータ) (2023-05-08T11:41:30Z) - On-Device Training Under 256KB Memory [65.76525493087847]
本稿では,256KBのメモリでデバイス上でのトレーニングを可能にするアルゴリズム・システム協調設計フレームワークを提案する。
私たちのフレームワークは、小さなIoTデバイス上での視覚認識のデバイス上での転送学習のための、最初の実用的なソリューションです。
論文 参考訳(メタデータ) (2022-06-30T17:59:08Z) - A Simulation Platform for Multi-tenant Machine Learning Services on
Thousands of GPUs [38.92672037891692]
AnalySIMは、マルチテナント機械学習サービスの効率的な設計探索を可能にするクラスタシミュレータである。
GPUリソースの利用など、さまざまなパフォーマンスメトリクスで、さまざまなスケジューリングポリシをテストし、分析することが可能になる。
プリエンプションとマイグレーションによって、平均的な仕事の完了時間が大幅に短縮できることがわかった。
論文 参考訳(メタデータ) (2022-01-10T06:00:11Z) - Opacus: User-Friendly Differential Privacy Library in PyTorch [54.8720687562153]
私たちは、差分プライバシーでディープラーニングモデルをトレーニングするための、オープンソースのPyTorchライブラリであるOpacusを紹介します。
シンプルでユーザフレンドリなAPIを提供しており、コードに最大2行を追加することで、マシンラーニングの実践者がトレーニングパイプラインをプライベートにすることができる。
論文 参考訳(メタデータ) (2021-09-25T07:10:54Z) - Progressive Network Grafting for Few-Shot Knowledge Distillation [60.38608462158474]
本稿では, 数ショットデータに適した二段蒸留方式を提案する。
最初のステップでは、生徒のブロックを1つずつ教師に移植し、移植されたブロックのパラメータと他の教師ブロックのパラメータを学習します。
CIFAR10, CIFAR100, ILSVRC-2012で, わずか数サンプルで, 満足のいく結果が得られることを実証した。
論文 参考訳(メタデータ) (2020-12-09T08:34:36Z) - TensorFlow Lite Micro: Embedded Machine Learning on TinyML Systems [5.188829601887422]
組み込みデバイス上でのディープラーニング推論は、小さな組み込みデバイスが一様であることから、無数のアプリケーションで溢れている分野である。
組み込みデバイス上でのディープラーニング推論は、小さな組み込みデバイスが一様であることから、無数のアプリケーションで溢れている分野である。
組み込みシステム上でディープラーニングモデルを実行するための,オープンソースのML推論フレームワークであるLite Microを紹介した。
論文 参考訳(メタデータ) (2020-10-17T00:44:30Z) - TensorFI: A Flexible Fault Injection Framework for TensorFlow
Applications [2.204335500292961]
複製に基づくアプリケーションのための高レベルフォールトインジェクション(FI)フレームワークを提案する。
FIFIは一般的なプログラムにハードウェアとソフトウェアの両方の欠点を注入することができる。
既存のプログラムに統合して,さまざまな障害タイプに対するレジリエンスを評価することも可能だ。
論文 参考訳(メタデータ) (2020-04-03T19:26:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。