論文の概要: Parallel Performance-Energy Predictive Modeling of Browsers: Case Study
of Servo
- arxiv url: http://arxiv.org/abs/2002.03850v1
- Date: Thu, 6 Feb 2020 20:16:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 12:38:29.466403
- Title: Parallel Performance-Energy Predictive Modeling of Browsers: Case Study
of Servo
- Title(参考訳): ブラウザの並列パフォーマンス・エネルギ予測モデリング:servoのケーススタディ
- Authors: Rohit Zambre, Lars Bergstrom, Laleh Aghababaie Beni, Aparna
Chandramowliswharan
- Abstract要約: 教師あり学習を用いたWebページプリミティブとWebブラウザの並列性能の関係をモデル化する。
我々は、自動ラベリングアルゴリズムを用いて、様々なレベルのパフォーマンス改善のためのエネルギー使用量のトレードオフを検討する。
クアッドコアのIntel Ivy Bridgeラップトップの実験では、それぞれ94.52%と46.32%のパフォーマンスとエネルギー使用量を改善することができる。
- 参考スコア(独自算出の注目度): 0.9699640804685628
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mozilla Research is developing Servo, a parallel web browser engine, to
exploit the benefits of parallelism and concurrency in the web rendering
pipeline. Parallelization results in improved performance for pinterest.com but
not for google.com. This is because the workload of a browser is dependent on
the web page it is rendering. In many cases, the overhead of creating,
deleting, and coordinating parallel work outweighs any of its benefits. In this
paper, we model the relationship between web page primitives and a web
browser's parallel performance using supervised learning. We discover a feature
space that is representative of the parallelism available in a web page and
characterize it using seven key features. Additionally, we consider energy
usage trade-offs for different levels of performance improvements using
automated labeling algorithms. Such a model allows us to predict the degree of
parallelism available in a web page and decide whether or not to render a web
page in parallel. This modeling is critical for improving the browser's
performance and minimizing its energy usage. We evaluate our model by using
Servo's layout stage as a case study. Experiments on a quad-core Intel Ivy
Bridge (i7-3615QM) laptop show that we can improve performance and energy usage
by up to 94.52% and 46.32% respectively on the 535 web pages considered in this
study. Looking forward, we identify opportunities to apply this model to other
stages of a browser's architecture as well as other performance- and
energy-critical devices.
- Abstract(参考訳): Mozilla Researchは、Webレンダリングパイプラインにおける並列性と並列性の利点を活用するために、並列WebブラウザエンジンのServoを開発している。
並列化によってPinterest.comのパフォーマンスは向上するが、google.comでは改善されない。
これは、ブラウザのワークロードがレンダリングしているWebページに依存しているためです。
多くの場合、並列処理の生成、削除、調整のオーバーヘッドは、そのメリットよりも優れています。
本稿では,教師あり学習を用いたWebページプリミティブとWebブラウザの並列性能の関係をモデル化する。
我々は、webページで利用可能な並列性を表す特徴空間を発見し、7つの主要な特徴を用いて特徴付けする。
さらに, 自動ラベリングアルゴリズムを用いて, 異なるレベルの性能改善のためのエネルギー使用トレードオフを検討する。
このようなモデルにより、Webページで利用可能な並列性の程度を予測し、Webページを並列にレンダリングするかどうかを決定することができる。
このモデリングは、ブラウザのパフォーマンスを改善し、そのエネルギー使用量を最小限にするために重要である。
本稿では,Servoのレイアウトステージをケーススタディとして評価する。
クアッドコアのIntel Ivy Bridge (i7-3615QM)ラップトップの実験では、この研究で検討された535ページにおいて、パフォーマンスとエネルギー使用率を最大94.52%と46.32%向上させることができる。
今後、このモデルをブラウザアーキテクチャの他のステージや、他のパフォーマンスおよびエネルギークリティカルなデバイスに適用する機会を特定します。
関連論文リスト
- Tur[k]ingBench: A Challenge Benchmark for Web Agents [41.852615330725655]
TurkingBenchは、テキストインストラクションとマルチモーダルコンテキストを備えたWebページとして提示されるタスクからなるベンチマークである。
このベンチマークには158タスクにまたがる32.2Kインスタンスが含まれている。
言語のみのモデルと視覚言語モデルを含む,最先端のプライベートモデルとオープンソースモデルの性能を評価する。
論文 参考訳(メタデータ) (2024-03-18T16:06:30Z) - Green AI: A Preliminary Empirical Study on Energy Consumption in DL
Models Across Different Runtime Infrastructures [56.200335252600354]
トレーニング済みのモデルを、ネイティブな開発環境とは異なる環境にデプロイするのは、一般的なプラクティスです。
これにより、インフラを含むONNXや標準フォーマットとして機能するONNXなどの交換フォーマットが導入された。
論文 参考訳(メタデータ) (2024-02-21T09:18:44Z) - Anatomizing Deep Learning Inference in Web Browsers [17.63663828498732]
ブラウザ内推論の総合的なパフォーマンス測定を,これまでに初めて行った。
提案手法は,ブラウザ内推論(応答性,滑らか性,推測精度)を測定するための新しい指標を提案する。
ブラウザ内推論は、CPUでは平均16.9倍、GPUでは4.9倍の遅延差を示す。
論文 参考訳(メタデータ) (2024-02-08T08:02:57Z) - Asynchronous Distributed Genetic Algorithms with Javascript and JSON [0.0]
ユビキタスなWebブラウザの計算機能を利用する分散進化計算システムを提案する。
本稿では,コンピュータが社会的活動となり,本質的に予測不能となるため,この種の仮想コンピュータの性能について検討する。
論文 参考訳(メタデータ) (2024-01-30T18:23:28Z) - Performance Tuning for GPU-Embedded Systems: Machine-Learning-based and
Analytical Model-driven Tuning Methodologies [0.0]
本研究は,分析モデル駆動型チューニング手法と機械学習(ML)に基づくチューニング手法を紹介する。
NVIDIA JetsonシステムにおけるBPLGライブラリの異なる並列プレフィックス実装のための2つのチューニング手法の性能評価を行った。
論文 参考訳(メタデータ) (2023-10-24T22:09:03Z) - Retentive Network: A Successor to Transformer for Large Language Models [91.6652200825638]
大規模言語モデルの基盤アーキテクチャとしてRetentive Network(RetNet)を提案する。
理論的には、再発と注意の関係を導出する。
言語モデリングの実験結果から、RetNetは優れたスケーリング結果、並列トレーニング、低コストなデプロイメント、効率的な推論を実現している。
論文 参考訳(メタデータ) (2023-07-17T16:40:01Z) - Multimodal Web Navigation with Instruction-Finetuned Foundation Models [99.14209521903854]
視覚言語基礎モデルを用いたWebエージェントのためのデータ駆動オフライントレーニングについて検討する。
本稿では,WebページのスクリーンショットとHTMLページの両方を観察する命令追従型マルチモーダルエージェントWebGUMを提案する。
このレシピは,マルチモーダル認識,HTML理解,マルチステップ推論といったエージェントの能力を向上させることを実証的に実証する。
論文 参考訳(メタデータ) (2023-05-19T17:44:34Z) - Does compressing activations help model parallel training? [64.59298055364336]
モデル並列性に対する圧縮法の有効性に関する実験的検討を行った。
圧縮アルゴリズムの3つの共通クラスを実装し,評価する。
我々は160以上の設定と8つの一般的なデータセットでこれらの手法を評価した。
論文 参考訳(メタデータ) (2023-01-06T18:58:09Z) - Benchopt: Reproducible, efficient and collaborative optimization
benchmarks [67.29240500171532]
Benchoptは、機械学習で最適化ベンチマークを自動化、再生、公開するためのフレームワークである。
Benchoptは実験を実行、共有、拡張するための既製のツールを提供することで、コミュニティのベンチマークを簡単にする。
論文 参考訳(メタデータ) (2022-06-27T16:19:24Z) - Concept Extraction Using Pointer-Generator Networks [86.75999352383535]
本稿では、ポインタジェネレータネットワークの遠隔監視に基づく、汎用的なオープンドメインOOV指向抽出モデルを提案する。
このモデルは250Kのウィキペディアページから特別にコンパイルされた大規模な注釈付きコーパスで訓練されている。
論文 参考訳(メタデータ) (2020-08-25T22:28:14Z) - Optimizing Streaming Parallelism on Heterogeneous Many-Core
Architectures: A Machine Learning Based Approach [16.702537371391053]
本稿では、異種多コアアーキテクチャ上のタスクベース並列アプリケーションにおいて、ハードウェアリソース分割とタスク粒度に関する優れたソリューションを導出する自動手法を提案する。
提案手法では,与えられたリソース分割とタスクの粒度設定に基づいて,対象アプリケーションの結果のパフォーマンスを推定するために,性能モデルを用いる。
シングルストリームバージョンと比較すると,XeonPhiとGPUプラットフォームでそれぞれ1.6倍,1.1倍の高速化を実現している。
論文 参考訳(メタデータ) (2020-03-05T21:18:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。