論文の概要: Unicorn: Reasoning about Configurable System Performance through the
lens of Causality
- arxiv url: http://arxiv.org/abs/2201.08413v1
- Date: Thu, 20 Jan 2022 19:16:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-24 22:30:43.861618
- Title: Unicorn: Reasoning about Configurable System Performance through the
lens of Causality
- Title(参考訳): Unicorn: 因果レンズによる構成可能なシステムパフォーマンスについて
- Authors: Md Shahriar Iqbal, Rahul Krishna, Mohammad Ali Javidian, Baishakhi
Ray, Pooyan Jamshidi
- Abstract要約: ソフトウェア-ハードウェアスタック間の構成オプション間の複雑なインタラクションをキャプチャするUnicornと呼ばれる新しい手法を提案する。
実験の結果、Unicornは最先端のパフォーマンス最適化とデバッグメソッドよりも優れていた。
既存の手法とは異なり、学習した因果性能モデルは、新しい環境のパフォーマンスを確実に予測する。
- 参考スコア(独自算出の注目度): 12.877523121932114
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern computer systems are highly configurable, with the variability space
sometimes larger than the number of atoms in the universe. Understanding and
reasoning about the performance behavior of highly configurable systems, due to
a vast variability space, is challenging. State-of-the-art methods for
performance modeling and analyses rely on predictive machine learning models,
therefore, they become (i) unreliable in unseen environments (e.g., different
hardware, workloads), and (ii) produce incorrect explanations. To this end, we
propose a new method, called Unicorn, which (a) captures intricate interactions
between configuration options across the software-hardware stack and (b)
describes how such interactions impact performance variations via causal
inference. We evaluated Unicorn on six highly configurable systems, including
three on-device machine learning systems, a video encoder, a database
management system, and a data analytics pipeline. The experimental results
indicate that Unicorn outperforms state-of-the-art performance optimization and
debugging methods. Furthermore, unlike the existing methods, the learned causal
performance models reliably predict performance for new environments.
- Abstract(参考訳): 現代のコンピュータシステムは高度に構成可能であり、時として宇宙の原子の数よりも可変性空間が大きくなる。
巨大な可変性空間のため、高度に構成可能なシステムの性能挙動の理解と推論は困難である。
予測型機械学習モデルに依拠するパフォーマンスモデリングと解析の最先端手法
(i) 目に見えない環境(例えば、異なるハードウェア、ワークロード)、そして
(ii)不正確な説明をする。
そこで我々はUnicornと呼ばれる新しい手法を提案する。
a) ソフトウェア-ハードウェアスタック間の設定オプション間の複雑なインタラクションをキャプチャし、
b)このような相互作用が因果推論による性能変動に与える影響について述べる。
我々はunicornを,デバイス上の3つの機械学習システム,ビデオエンコーダ,データベース管理システム,データ分析パイプラインを含む,高度に構成可能な6つのシステムで評価した。
実験の結果、unicornは最先端のパフォーマンス最適化とデバッグメソッドよりも優れていた。
さらに,既存の手法とは異なり,学習した因果的性能モデルは,新たな環境における性能を確実に予測する。
関連論文リスト
- Cross Feature Selection to Eliminate Spurious Interactions and Single
Feature Dominance Explainable Boosting Machines [0.0]
解釈性は法的、倫理的、実践的な理由において不可欠である。
高性能モデルは、冗長な特徴と単一機能支配との素早い相互作用に悩まされることがある。
本稿では,これらの課題に対処するための新しいアプローチとして,代替のクロスフィーチャー選択,アンサンブル機能,モデル構成変更手法について検討する。
論文 参考訳(メタデータ) (2023-07-17T13:47:41Z) - Multi-Objective Optimization of Performance and Interpretability of
Tabular Supervised Machine Learning Models [0.9023847175654603]
解釈可能性の定量化には、特徴の空間性、特徴の相互作用の空間性、非単調な特徴効果の空間性という3つの尺度がある。
我々のフレームワークは、非常に競争力のあるモデルや、最先端のXGBoostやExplainable Boosting Machineモデルよりも優れたモデルを見つけることができることを示す。
論文 参考訳(メタデータ) (2023-07-17T00:07:52Z) - SysNoise: Exploring and Benchmarking Training-Deployment System
Inconsistency [55.49469003537601]
我々はSysNoiseを紹介した。SysNoiseは、頻繁に発生するが、ディープラーニングのトレーニング-デプロイサイクルでしばしば見過ごされるノイズである。
我々は,SysNoiseが20以上のモデル,画像分類,オブジェクト検出,インスタンスセグメンテーション,自然言語処理タスクに与える影響を測定する。
実験の結果、SysNoiseはさまざまなタスクにわたるモデルロバスト性に一定の影響をもたらし、データ強化や逆行訓練のような一般的な緩和効果は、それに対する限られた影響を示します。
論文 参考訳(メタデータ) (2023-07-01T09:22:54Z) - CAMEO: A Causal Transfer Learning Approach for Performance Optimization
of Configurable Computer Systems [16.75106122540052]
環境変化下での因果予測の不変性を同定する手法であるCAMEOを提案する。
MLperf深層学習システム,ビデオ分析パイプライン,データベースシステムにおいて,最先端の最適化手法に対する大幅な性能向上を示す。
論文 参考訳(メタデータ) (2023-06-13T16:28:37Z) - Robustness and Generalization Performance of Deep Learning Models on
Cyber-Physical Systems: A Comparative Study [71.84852429039881]
調査は、センサーの故障やノイズなど、様々な摂動を扱うモデルの能力に焦点を当てている。
我々は,これらのモデルの一般化と伝達学習能力を,アウト・オブ・ディストリビューション(OOD)サンプルに公開することによって検証する。
論文 参考訳(メタデータ) (2023-06-13T12:43:59Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - HINNPerf: Hierarchical Interaction Neural Network for Performance
Prediction of Configurable Systems [22.380061796355616]
HINNPerfは、性能予測のための新しい階層型相互作用ニューラルネットワークである。
HINNPerfは、構成オプション間の複雑な相互作用をモデル化するために、埋め込みメソッドと階層ネットワークブロックを使用している。
実世界の10のシステムにおける実証実験の結果,我々の手法は最先端の手法よりも統計的に優れていた。
論文 参考訳(メタデータ) (2022-04-08T08:52:23Z) - An Empirical Analysis of Backward Compatibility in Machine Learning
Systems [47.04803977692586]
MLモデルの改善を目的としたアップデートでは,下流システムやユーザに大きな影響を及ぼす可能性のある,新たなエラーが発生する可能性がある。
例えば、画像認識などのクラウドベースの分類サービスで使用されるモデルの更新は、予期しない誤った振る舞いを引き起こす可能性がある。
論文 参考訳(メタデータ) (2020-08-11T08:10:58Z) - Learning to Simulate Complex Physics with Graph Networks [68.43901833812448]
本稿では,機械学習のフレームワークとモデルの実装について紹介する。
グラフネットワーク・ベース・シミュレータ(GNS)と呼ばれる我々のフレームワークは、グラフ内のノードとして表現された粒子で物理系の状態を表現し、学習されたメッセージパスによって動的を計算します。
我々のモデルは,訓練中に数千の粒子による1段階の予測から,異なる初期条件,数千の時間ステップ,少なくとも1桁以上の粒子をテスト時に一般化できることを示す。
論文 参考訳(メタデータ) (2020-02-21T16:44:28Z) - Dynamic Federated Learning [57.14673504239551]
フェデレートラーニング(Federated Learning)は、マルチエージェント環境における集中的なコーディネーション戦略の包括的用語として登場した。
我々は、各イテレーションにおいて、利用可能なエージェントのランダムなサブセットがそのデータに基づいてローカル更新を実行する、フェデレートされた学習モデルを考える。
集約最適化問題に対する真の最小化器上の非定常ランダムウォークモデルの下で、アーキテクチャの性能は、各エージェントにおけるデータ変動率、各エージェントにおけるモデル変動率、アルゴリズムの学習率に逆比例する追跡項の3つの要因によって決定されることを示す。
論文 参考訳(メタデータ) (2020-02-20T15:00:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。